人工知能(AI)の出現は、社会がその発展を制御する方法を見つけられなければ「文明史上最悪の出来事」になる可能性があると、著名な天体物理学者スティーブン・ホーキング博士は月曜、ポルトガルのリスボンで開催された技術カンファレンス「ウェブサミット」で述べた。 。 「コンピューターは理論的には人間の知能をエミュレートし、超えることができます。」
AIには多くの利点がある
ホーキング博士は、自然界へのダメージを逆転させたり、貧困や病気を根絶したりするための AI の可能性と利点について語りました。しかし同氏は、AIが今後どのような方向に発展するかは不確実だと警告した。 「効果的な AI の開発に成功することは、私たちの文明の歴史の中で最大の出来事になる可能性があります。あるいは最悪です。ただ私たちには分かりません。 「したがって、私たちがAIによって無限にサポートされるのか、それとも無視され、餌を与えられるのか、あるいは破壊されるのかはわかりません」とホーキング博士は講演中に述べた。

起こり得る危険に備える
「私たちが潜在的な脅威に備えて回避する方法を学ばなければ、AI は私たちの文明の歴史の中で最悪の出来事になる可能性があります。それは、強力な自律兵器や、少数の人々が多数の人々を抑圧する新たな方法などの危険をもたらします。 CNBCの報道によると、「これは私たちの経済に大きな影響を与える可能性がある」と天体物理学者は述べた。
EU議会のイニシアチブ
ホーキング博士はまた、この「潜在的な現実」を回避する方法についても説明しました。AI 作成者は「ベスト プラクティス」と「効果的な管理」を適用する必要があるでしょう。科学者は、主にヨーロッパから来た研究や提案のいくつかを強調しました。 AIやロボット工学に関する新たなルールの導入を目指すEU議会の取り組みにも前向きに言及した。
今年の初めに、EU議会はロボット工学とAIの分野における民法規制に関するEU委員会への勧告を扱う最初の決議草案を提出した。したがって、人はまた、「AI が人間の知的能力を超えて、自らの創造物を制御する人類の能力を損なう可能性があり、その結果、おそらく AI の主人となる能力が人類の知的能力を深刻に危険にさらす可能性がある」という可能性にも備えておく必要があります。運命を変え、人類種の存続を確実にするのです。」したがって、決議草案にはロボットの「キルスイッチ」が含まれています。

天体物理学者が言うように、こうした規制はホーキング博士に希望を与えている。 「私は楽観主義者で、世界のために AI を開発できると信じています。彼女が私たちと調和できること。私たちが必要なのは、危険を認識し、特定し、その結果に適時に備えることだけです」とホーキング博士は述べた。

イーロン・マスク氏も危険性を警告
英国の物理学者がAIの危険性について警告したのはこれが初めてではなく、彼だけではない。テスラとスペースXの最高経営責任者(CEO)イーロン・マスク氏は最近、AIが第三次世界大戦を引き起こす可能性があると述べ、将来的に存在感を維持するには人間が機械と協力する必要があるとさえ示唆した。マイクロソフト創設者のビル・ゲイツ氏も懐疑論者の一人だ。
これも興味深いかもしれません:
- 米国の研究者:機械の超知能の実現にはまだ数百年かかる
- 「Magic in the Machine」 – これが Google の機械学習の使い方です
- アルゴリズムが画像認識ソフトウェアを混乱させる

しかし、誰もが未来を暗いと考えているわけではありません。たとえば、フェイスブックのマーク・ザッカーバーグ最高経営責任者(CEO)は、AIの将来について「非常に楽観的」だと述べた。チェスの元世界チャンピオンで活動家のガルリ・カスパロフも、数十年前にチェスをしていて機械に負けたにもかかわらず、AIは「人類にとって脅威ではない」と考えている。彼は IBM チェスコンピューターと数回エキシビションマッチを行いました。 1989年にディープ・ソートに勝利したが、1996年にディープ・ブルーに敗れた。
この記事は、mirai.click に初めて掲載されました。
