の研究者
と
メディアラボは、「世界初のサイコパスAI」と主張するものを開発した。これを「」といいます。
ノーマン
「 – 寄りかかって
ノーマン・ベイツ
、殺人者
アルフレッド・ヒッチコック
「サイコ」 – 「インターネットの最も暗い隅」からのデータの助けを借りて訓練されました。これらには、とりわけ、対応するサブレディットからの瀕死の人々の写真が含まれていました。比較のために、別の AI は、猫や鳥などの中立的な画像を使用してトレーニングされました。
AIのサイコパス的特徴はロールシャッハテストで明らか
その後、両方の人工知能がパイプシャフトのテストを受けました。通常のAIはインクブロットで「花瓶のクローズアップ」を見ていたが、それを解釈した

ノーマン
「撃たれた男」として。 「小鳥の白黒写真」が「生地製造機に引き込まれる男性」になる。 「傘をさしている人」は、今度は「叫び声を上げている妻の前で撃たれる男性」として解釈されます。
イヤド
ラワン
あなたは「」で望んでいた
ノーマン
「重要な基礎
機械
学習を実証する: 「データはそれよりも重要です」

アルゴリズム
しかし、偏見の影響を受けるデータセットが頻繁に使用され、そこから得られるデータに影響を与えます。」
アルゴリズム
伝わった。

AIは偏ったデータによって悪影響を受ける
不完全な問題や、
プリロード済み
データセットはすでに深刻な影響を及ぼしています。昨年、その1つが米国の裁判所で使用されていたことが判明した
ソフトウェア
肌の色が浅く恵まれない人々のリスク評価に使用されます。これらの人々は、プログラムが再犯の可能性のリスクが高すぎると評価したため、保護観察またはより短い懲役刑を拒否されました。同様の問題は次のバグである可能性があります。
グーグル
写真が原因。おそらくそれが原因で、クラウド サービスは肌の色が黒い人を猿として認識しました

アルゴリズム
適切な写真を使用して十分にトレーニングされていませんでした。
従業員の多様性が求められている
研究者らによると、従業員の多様性をさらに確保すれば、これらの問題の多くは早い段階で解決できる可能性があります。全体的に言えることですが、特に女性や他の肌の色の人は、
IT業界
、AI開発では大幅に過小評価されています。 「私たちが持ってくるのは
アルゴリズム
物事も人と同じように。 「だからこそ、すべてを正しく伝えられないリスクがあるのです」とデイブは警告する
コプリン
、
マイクロソフトの
“チーフ

想像する
役員
”。
マイクロソフト
2016年に米国企業が開発したAIが制御不能になったことが話題になった。
マイクロソフトの
チャットボット
「テイ」は他のユーザーとの交流を通じて話すことを学びましたが、しばらくすると人種差別的なコメントをするようになりました。その後、プロジェクトは中止されました。
