現在、多くの企業が人工知能の研究を行っています。 ChatGPT のようなソフトウェアは、多くの人の日常生活に急速に浸透しました。仕事でも AI に依存している人はたくさんいます。しかし、急速な発展にはリスクも伴います。今ではメーカーの中にもこのテクノロジーに反対する声を上げている人もいる。
人工知能は危険なこともある
3 月末、多くの研究者が人工知能の潜在的な危険性について警告しました。理論的には、人類を真の混乱に陥れる力があるだろう。イーロン・マスク氏などハイテク分野の業界リーダーも公開書簡に参加した。同氏と他の署名者は、深い懸念を理由に開発の即時停止を求めた。

現在、OpenAI CEO の Sam Altman 氏などが、開発者自ら名乗り出て注意義務を果たしています。 「AIによる絶滅のリスクを抑えることは、パンデミックや核戦争などの他の社会リスクと並んで世界的な優先事項であるべきだ」と簡潔に述べている。

Google DeepMind の責任者である Demis Hassabis の名前も署名リストにあります。有名大学の多くの教授や、人工知能を専門とする別の企業の CEO であるダリオ・アモデイ氏も署名しています。

意図的に短く簡潔なステートメント
手紙はたとえ一文であっても、大きな影響力を持つはずです。 AI 安全性センターは、AI の急速な発展に対する懸念は多面的であると説明しています。したがって、彼らは意図的に短いながらも非常に基本的な声明に合意し、AI メーカーもこれに同意することになりました。

OpenAI はまた、声明を超えて人工知能のリスクと機会にも目を向けてきました。そこで彼らは超知能のための一種の監視を求めており、ChatGPTの作成者らはそれが今後10年間で社会に浸透すると信じている。

AI を使用する場合は、主要な原則について合意することが重要です。主な点は次のとおりです。
- 開発の取り組みの調整: 企業間のコラボレーションにより、持続可能なセキュリティの標準に準拠した AI の開発が可能になるはずです。
- ChatGPT および Co. の国際機関: AI の計算能力などのリソースは、より高いレベルの管理機関によって分散および監督される必要があります。これには、システムの検査と、適用される安全規格への準拠の確認が含まれます。
- 超知能は安全でなければなりません: ここで OpenAI は、これは未解決の研究課題であると説明しています。私たちが人工知能を躊躇なく利用できるよう、すでに「大きな取り組み」が行われている。
出典: AI 安全性センター、OpenAI
