
ChatGPTは不可欠なツールとして進化を続けており、多くの人が日常的な作業だけでなく、個人的な問題やデリケートな問題にもChatGPTを利用するようになっています。しかし、AIの洞察によって不倫がうっかり発覚し、結婚生活が破綻するなど、こうした依存が深刻な結果につながる事例も発生しています。驚くべきことに、チャットボットに治療支援を求める人もおり、サム・アルトマン氏はこれに対して明確に警告しています。最近、ある憂慮すべき事件が、AIを健康アドバイスに利用することのリスクを浮き彫りにしました。ニューヨーク在住の60歳の男性が、ChatGPTの食事に関する推奨事項に従った結果、まれで危険な症状を発症したという報道がありました。
AI健康アドバイスの隠れた危険性:ブロミズムと行き過ぎた塩代替品
AIシステムへの過度な依存については、継続的な議論の中で警告が出されており、最近では米国の医学誌がChatGPTからの医学的アドバイスを求めることに対して特に警告を発しています。この警告は、NBCニュースが報じたように、チャットボットからの食事アドバイスに従った後に体調を崩した男性の重篤な健康被害を受けて発覚しました。Annals of Internal Medicine誌に掲載された詳細な症例研究では、この男性がAIのアドバイスに従った後に臭化物中毒の一種である臭素中毒を発症した経緯が記録されています。
この男性は、一般的な食卓塩(塩化ナトリウム)の代わりに、オンラインで見つけた臭化ナトリウムという化学物質を使用するという誤った判断を下しました。ChatGPTで塩の代替品について調べたところ、臭化ナトリウムの方が健康に良いと教えられました。3ヶ月間、彼はこの有毒物質を毎日摂取し、最終的には妄想症、不眠症、精神病といった深刻な健康上の合併症を発症しました。ある時期、隣人が自分を毒殺しようとしているのではないかとさえ思ったほどでした。
入院後、医療専門家は彼を臭化物への過剰曝露に起因する臭素中毒と診断しました。幸いなことに、臭素の摂取を中止し適切な治療を受けた後、患者の症状は改善し始めました。臭化物塩の使用頻度が低いため、今日では臭素中毒の症例はまれですが、この事例は、適切な規制なしにオンラインで薬物を入手することの潜在的な危険性を浮き彫りにしています。
この男性の体験は、健康関連の問い合わせにAIを利用する際に注意を払うことの重要性を改めて認識させる重要な事例です。研究者たちは、ChatGPTが臭化物を食塩の代替品として正しく認識したかどうかを調査しました。その結果、臭化物の潜在的な毒性に関する警告は一切出さずに認識できたことが確認されました。AIは人間の医療専門家の専門知識と責任感を再現できないことを考えると、このような注意不足は特に懸念すべき点です。
これらの事例を踏まえると、AIモデルは、特にデリケートな健康問題に関しては、より強固な安全対策を備える必要があることは明らかです。AIツールが溢れる現代において、好奇心と慎重さのバランスを取り、AIへの依存が専門家の医療アドバイスに取って代わることのないよう、常に注意を払うことが重要です。
コメントを残す