BBC の報道によると、シリコンバレーの研究者たちは、Starcraft II のような戦略ゲームを使用して、非常に複雑な問題でも自分で解決できるように人工知能 (AI) を教えています。このように訓練されたAIは高度なサイバー攻撃の実行に使用される可能性があると国防省は人工知能に関する論文の中で指摘している。
「ならず者国家」にとって新たなチャンス
同紙の担当者らは、特にいわゆる「ならず者国家」が将来こうした機会を利用して、さまざまな国の重要インフラに対して標的型攻撃を実行する可能性があると懸念している。

「AIは、このようなサイバー攻撃のペースが確実に速くなるだけでなく、コストが劇的に下がり、より多くの国がこれらの機能にアクセスできるようになるだろう」とBBCは報告書から引用している。いわゆる APT システム (「高度な持続的脅威」) を購入する「経済的余裕がある人」は誰でも、サイバー攻撃によって莫大な損害を引き起こす立場にあります。
同省の責任者らはこのようなシステムを深刻な危険とみており、早ければ2020年にもそうなる可能性があると想定している。

専門家は深刻な危険はないとみている
しかし、ユニバーシティ・カレッジ・ロンドンの研究者スティーブン・マードック氏はこれに反論する。 AIが自ら高度なサイバー攻撃を実行できるようになるのはまだ遠い将来の話だ。 Starcraft のようなゲームをマスターする AI でさえ「創造的ではなく」、「単純なルール」に従うだけです。もちろん、マードック氏は、この開発により、サイバー攻撃は以前よりも確実に自動化されるだろうと述べています。しかし、そのような攻撃を計画し、準備するには依然として人材が必要です。
「深い心」
報告書ではGoogleの「Deep Mind」が例として挙げられている。ロンドンに拠点を置く Google 子会社も、独自のアルゴリズムをより適切にトレーニングするために Starcraft II を使用しています。 GO のような複雑なゲームも、AI をより賢くするために使用されています。 DeepMind は、得られた洞察は「世界をより良い場所にするため」にのみ使用されることを強調しています。

———-
これも興味深いかもしれません:
- 「人は簡単に誤解される」 – アルゴリズムに道徳が必要な理由
- 米軍:AIはまだ実際の戦争の要件をすべて満たしていない
- デジタル戦争:中国は潜水艦艦隊に人工知能を使用する計画

———-
賞賛に値することですが、これは、他のあまり平和的ではない企業や国家による「ディープ・マインド」の調査結果の盗用を排除するものではありません。
