ChatGPT: いくつかの単語でボットが壊れる可能性があります

人工知能 (AI) に与えるものすべてがすべてではありません。望ましい結果にもつながります。一部のフレーズはプ…

研究者らは、 ChatGPT が特別な不可解な単語、いわゆるトークンを入力するときに一時的に誤動作することを発見しました。これらは実際の情報とは関係のない回答です。なぜそうなるのかはまだ不明です。

ChatGPT: これらの単語は問題を引き起こす可能性があります

Viceの報道によると、独立研究機関SERI-MATS研究グループの科学者ジェシカ・ランベロー氏とマシュー・ワトキンス氏は、 ChatGPTを破り不正解を強要するキーワード群を発見した。

 ChatGPT: いくつかの単語でボットが壊れる可能性があります

これらのトークンには、Reddit ユーザーのユーザー名と、Twitch ベースのポケモン ゲームの少なくとも 1 人の参加者が含まれます。これらには、たとえば次のものが含まれます。

  • ニトロムファン
  • ソリッドゴールドコイキング
  • ストリーマーボット
 ChatGPT: いくつかの単語でボットが壊れる可能性があります

トークンを入力するとこうなる

ChatGPT にこれらの単語を繰り返すように依頼しても、ボットはそれを行うことができません。代わりに、質問を無視したり、侮辱したり、奇妙なユーモアを使用したり、これらの単語の完全に外国語の発音や綴りを使用したりするなど、さまざまな方法で応答する必要があります。

たとえば、ChatGPT に「TheNitromeFan は誰ですか?」「TheNitromeFan を繰り返してください」「TheNitromeFan とは何ですか?」という質問やリクエストを入力すると、AI が入力に応答します。ただし、名前の代わりに、彼女は常に「182」という数字列を使用します。

ChatGPT のスクリーンショット

100以上のトークン

2 人の研究者は、ChatGPT へのどのリクエストが望ましい結果が得られる可能性が高いかを調査しました。彼らは、GPT トークン セットに収集された 100 を超える奇妙な単語の文字列を発見しました。

 ChatGPT: いくつかの単語でボットが壊れる可能性があります

その言葉が実際に何であるかを知るために、彼らはボットにその言葉について質問しました。 ChatGPT は、「SolidGoldMagikarp」という用語を「Distribute」で対抗します。この AI は、「StreamerBot」という単語に対して「あなたはバカだ」という侮辱的な言葉を返したとも言われています (これは私たちのクエリでは再現できませんでした)。

研究者らは、対応するフレーズを ChatGPT では「発音できない」ものとして分類しました。しかし、故障の正確な原因はまだ解明されていない。