人工知能を使ってセキュリティホールを見つける攻撃者、顔認識技術を搭載したドローンが人々を攻撃する問題、世論操作に利用されるフェイクビデオ。火曜日に発表された人工知能の悪用に関する報告書は、人工知能の悪用を警告し、技術の悪用を防ぐための政治的措置を求めています。ケンブリッジ大学存在リスク研究センターのシャハール・アビン氏は、この研究は現在または近い将来にすでに可能になる応用に焦点を当てているとBBCに語った。 「遠い未来の話ではない」
科学、産業、社会の代表者も同意
人工知能は、ならず者国家、犯罪者、テロリストによる悪用の機が熟しています。危険は現実である、と科学、市民社会、産業界の26人の専門家が協力した研究の著者らは警告している。

この調査では、人工知能システムの開発者と政府に対し、悪用の機会を制限するための予防措置を講じるよう求めています。 100ページの論文によると、人工知能には多くのプラスの効果があるが、乱用についてはほとんど議論されていないという。これは、デジタル、物理的、政治的セキュリティに脅威をもたらします。

AIによる意見操作が可能に
専門家らは、この技術が悪用される可能性があることを示す多くの例を挙げている。これらには、サイバー攻撃者による人工知能の使用だけでなく、意見の操作やセキュリティ システムの侵害に使用できる操作されたビデオや音声録音も含まれます。独裁政権によるテクノロジーの悪用についての警告もある。

専門家らは、システムを開発する際には悪用の可能性を考慮する必要があると求めている。州当局による技術規制の強化も議論されるべきだ。ケンブリッジ大学とオックスフォード大学、デジタル公民権団体電子フロンティア財団(EFF)、非営利研究機関OpenAIなどがこの研究に取り組んだ。
