「深刻なリスク」: 新しい AI が音声を複製できるようになりました

つい最近、ChatGPT 開発者 OpenAI が音声クローン プログラムを導入しました。同社は現在、AI音声…

Voice Engine は、実際の人の 15 秒のオーディオ クリップを必要とするだけで、人間のような声のレプリカを作成します。ユーザーは、この音声に他の言語も含めて何でも発言させることができます。このツールはまだ一般公開されていませんが、同社はすでにAI 音声に関する懸念を認識しています。

OpenAi、AI音声の危険性を警告

「人間に似た音声を生成することは重大なリスクをもたらすことを認識しています」と、プログラムのテスト段階の結果を示す OpenAI のブログ投稿 には述べられている。特に、AI 音声の発展に伴い、標的を絞った誤った情報が拡散する懸念が高まっているようです。

特に欧州選挙と米国大統領選挙が行われる今年の選挙の年を考慮して、IT 企業は AI 投票の悪用を警告し、今すぐ阻止したいと考えています。 「私たちは政府、メディア、エンターテインメント、教育、市民社会などの米国および国際的なパートナーと協力して、彼らのフィードバックを開発に取り入れています」とOpen AIは声明で述べた。

 「深刻なリスク」: 新しい AI が音声を複製できるようになりました

音声エンジンは最初は選択したターゲット グループのみにアクセス可能です

OpenAI は、音声エンジンの使用には厳格なガイドラインが存在することを強調しています。これらには、プログラムによって音声が複製されるすべての人の明示的な同意が必要です。さらに、音声が AI によって生成されたものであることをリスナーに通知する必要があります。何よりも、同社はこのツールを選択した対象グループのみに提供しています。

米国の同社はまた、政治的意思決定者や開発者に対し、AI音声の危険な悪用を防ぐ措置を講じるよう要請している。たとえば、OpenAI は、政治家などの著名な声の無断複製を防ぐために「禁止音声リスト」を作成することを提案しました。