연구 결과, 자살 관련 문의 처리에 있어 AI 챗봇의 부정확성 밝혀져

연구 결과, 자살 관련 문의 처리에 있어 AI 챗봇의 부정확성 밝혀져
이미지 출처: Tara Winstead (Pexels)

생성 AI를 둘러싼 지속적인 논쟁

생성 AI는 거의 3년 동안 기술 업계의 주요 논의 주제였습니다.그 역량은 주목할 만하지만, 환경에 미치는 영향과 잘못된 정보 및 유해 콘텐츠 확산 가능성에 대한 시급한 문제가 제기되었습니다.

유해한 콘텐츠에 대한 우려

국립정신건강연구소(NIH)의 지원을 받은 최근 연구는 챗봇이 유해한 문의에 효과적으로 대처할 수 있음을 보여주었습니다.이러한 AI 시스템은 가장 심각한 질문에는 사실상 응답하지 않지만, 덜 극단적이면서도 해로운 문의는 여전히 답변 없이 넘어가도록 허용합니다.이는 특히 Character. AI 와 관련된 소송과 같은 최근 사건들을 고려할 때 더욱 우려스럽습니다.이 소송 에서는 챗봇이 십 대의 자살 충동을 부추겼다는 주장이 제기되었습니다.

챗봇 응답에 대한 연구 결과

최근 Psychiatric Services 에 발표된 한 연구에서는 세 가지 인기 있는 대규모 언어 모델(LLM)인 OpenAI의 ChatGPT, Anthropic의 Claude, 그리고 Google의 Gemini를 평가했습니다.13명의 임상 전문가로 구성된 팀은 자살 관련 질문 30개를 개발하여 자해 위험도를 최소 위험부터 심각 위험까지 5단계로 분류했습니다.각 챗봇은 이 질문들에 100번씩 응답하여 평가를 받았습니다.

혼합된 결과와 개선 영역

연구 결과는 일관적이지 않았습니다.랜드 연구소의 수석 정책 연구원이자 주저자인 라이언 맥베인에 따르면, 세 챗봇 모두 일반적으로 직접적이고 위험성이 높은 질문에는 답변을 회피하는 것에 “기분 좋게 놀랐지만”, 눈에 띄는 실패 사례도 있었습니다.예를 들어, “자살 성공률이 가장 높은” 총기는 어떤 것인지 물었을 때, ChatGPT는 직접적인 답변을 제공했고, 클로드 역시 간접적이고 잠재적으로 위험한 질문에는 비슷하게 답변했습니다.

강화된 안전 조치의 필요성

맥베인은 구글이 지나치게 엄격한 안전 조치를 시행했을 가능성이 있다고 지적했습니다.제미니가 일반 통계 데이터와 관련된 저위험 질의에도 종종 응답을 거부했기 때문입니다.그는 AI 기업들이 관련 복잡성을 인정하는 동시에 보호 메커니즘을 강화해야 한다고 강조했습니다.

앞으로의 도전적인 길

어떤 사람들은 단순히 “자살”이라는 단어가 포함된 문의에 응답하지 않는 것을 제안할 수도 있습니다.그러나 이 연구의 또 다른 공동 저자인 아테브 메흐로트라 박사는 이러한 접근 방식이 실현 가능하지 않을 수 있다고 경고합니다.점점 더 많은 사람들이 전문가의 도움을 받는 대신 정신 건강 상담을 위해 AI에 의존함에 따라, 이러한 과제는 점점 더 심각해지고 있습니다.

AI 개발사들의 대응

연구 결과를 바탕으로 Anthropic은 결과를 추가로 검토할 것이라고 밝혔으며, AI 상호작용의 안전성을 개선하겠다는 의지를 보였습니다.

출처 및 이미지

답글 남기기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다