ChatGPT의 다이어트 조언을 따르던 60세 남성이 중독으로 입원

ChatGPT의 다이어트 조언을 따르던 60세 남성이 중독으로 입원

ChatGPT가 필수 도구로 끊임없이 발전함에 따라, 많은 사람들이 일상적인 업무뿐 아니라 개인적이거나 민감한 문제에도 점점 더 의존하고 있습니다.이러한 의존이 심각한 결과를 초래하는 사례도 발생했는데, 예를 들어 AI의 통찰력을 통해 의도치 않게 불륜이 드러나 결혼 생활이 파탄 나는 경우가 있습니다.놀랍게도, 일부 사람들은 챗봇에게 치료적 도움을 요청하기도 했는데, 샘 알트먼은 이에 대해 명시적으로 경고했습니다.최근, 건강 상담에 AI를 사용하는 것과 관련된 위험성이 드러난 충격적인 사건이 발생했습니다.뉴욕에 사는 60세 남성이 ChatGPT가 제공한 식단 권장 사항을 준수하다가 드물고 위험한 질병에 걸린 것으로 알려졌습니다.

AI 건강 팁의 숨겨진 위험: 브롬화와 지나친 소금 대체제

AI 시스템에 대한 과도한 의존을 경계해야 한다는 논의가 계속되고 있으며, 최근 미국 의학 저널에서는 ChatGPT의 의학적 조언을 구하지 말라고 경고하는 경고가 나왔습니다.NBC 뉴스 보도에 따르면, 이 경고는 챗봇의 식단 제안을 따른 후 병에 걸린 한 남성의 심각한 건강 사고 이후 나온 것입니다.Annals of Internal Medicine 에 게재된 심층 사례 연구는 이 남성이 AI의 조언에 따라 행동한 후 브롬 중독의 한 형태인 브롬중독증에 걸린 과정을 기록하고 있습니다.

이 남성은 일반 식탁용 소금(염화나트륨)을 온라인에서 발견한 화학 물질인 브롬화나트륨으로 대체하는 잘못된 결정을 내렸습니다. ChatGPT에 소금 대체품을 문의한 후, 그는 브롬화나트륨이 더 건강한 선택이라고 믿게 되었습니다.3개월 동안 그는 이 독성 물질을 매일 섭취했고, 결국 편집증, 불면증, 정신병과 같은 심각한 건강 합병증을 초래했습니다.심지어 이웃이 자신을 독살하려 한다고 믿기도 했습니다.

입원 당시 의료진은 그에게 과도한 브롬화물 노출로 인한 브롬중독증 진단을 내렸습니다.다행히 브롬화물 섭취를 중단하고 적절한 치료를 받은 후 환자의 상태가 호전되기 시작했습니다.오늘날 브롬화물염 사용이 드물어 브롬중독증 사례는 드물지만, 이 사건은 적절한 규제 없이 온라인에서 약물을 구매하는 것의 잠재적 위험을 보여줍니다.

이 남성의 경험은 건강 관련 조사에 AI를 활용할 때 신중을 기해야 한다는 점을 다시 한번 일깨워줍니다.연구진은 ChatGPT가 브롬화물을 소금 대체물로 정확하게 식별했는지 조사했으며, 브롬화물의 잠재적 독성에 대한 경고 없이도 이를 확인했습니다. AI가 인간 의료 전문가의 전문성과 책임감을 복제할 수 없다는 점을 고려할 때, 이러한 부주의는 특히 심각한 문제입니다.

이러한 사건들을 고려할 때, AI 모델은 특히 민감한 건강 문제와 관련하여 더욱 강력한 안전 조치를 갖춰야 함이 분명합니다. AI 도구가 넘쳐나는 오늘날, 호기심과 신중함 사이의 균형을 유지하는 것이 매우 중요하며, AI에 대한 의존이 결코 전문적인 의학적 조언을 대체해서는 안 됩니다.

출처 및 이미지

답글 남기기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다