カリフォルニア大学による最近の研究では、公開サブレディット「AskDocs」からの医療質問の選択に対する、医療専門家とチャットボットChatGPTの共感的な反応を比較し、分析しました。
ChatGPT は品質が優れています
爪楊枝を飲み込む危険性から頭部外傷後の脳震盪の危険性まで、質問には医療専門家とAIチャットボットが回答した。これらの回答は、どの回答が誰のものなのかは分からない医師団によって評価されました。 3 人の裁判官が各事件を審査し、スコアを平均して、合計 585 件の評価が行われました。

驚くべきことに、チャットボットの応答は 79% の確率で好まれました。その主な理由は、チャットボットの方がより質の高い情報を提供し、より共感的な言葉を使用していたからです。
ChatGPT の回答は、専門スタッフからの回答よりも最高品質のカテゴリに分類される可能性が約 4 倍高いだけでなく、最高の共感スコアに達する可能性も約 10 倍高かった。さらに、人工知能 (AI) の応答は投稿あたり 211 ワードと、人間の 52 ワードと比較して平均 4 倍の長さでした。

AI によるより思いやりのあるインタラクション
この研究では、反応の違いを説明するために特定の例が提供されました。爪楊枝を飲み込んだ場合の死亡リスクはどのくらいかと尋ねると、医師は簡潔で事実に基づいた答えを返した。

対照的に、AI モデルの反応はより包括的で、共感的で安心感のあるものであり、潜在的なリスクや不快感が生じた場合に取るべき行動も含まれていました。この違いにより、研究者らは、オンラインで自発的に質問に答える多忙な医師よりも、ChatGPT の方がベッドサイドでの思いやりのある態度の印象をよりよく伝えることができると結論付けました。
誤った情報の影響を受けやすい
しかし研究者らは、臨床現場におけるこのようなツールの有用性はまだ証明される必要があると指摘した。オンライン フォーラムでは、典型的な医師と患者のやりとりが反映されていない可能性があります。さらに、ChatGPT は礼儀正しく、理解しやすく、一見一貫した回答を提供しますが、コーディングと数学において基本的な間違いがあり、回答内の多くの事実は捏造または間違っています。
- こちらも興味深い: ChatGPT は誤った報告を広めますか?専門家とAIが明確に答えます
ただし、チャットボットは「幻覚」を起こして事実をでっち上げる傾向があるため、事実情報をチャットボットに依存することは危険である可能性があります。すべての回答は医療専門家によって慎重に検討される必要があります。
出典:「公開ソーシャルメディアフォーラムに投稿された患者の質問に対する医師と人工知能チャットボットの応答の比較」(JAMA International Medicine、2023)
