
AI 도구에 대한 의존도가 높아짐에 따라 많은 사용자가 의료 상담, 개인 지원, 전문가 상담 등 다양한 지원을 받기 위해 이러한 플랫폼을 이용하고 있습니다.이러한 추세는 AI 챗봇을 많은 사람들이 일상생활에서 필요로 하는 가상 개인 비서로 변모시켰습니다.그러나 이러한 의존도 증가는 과도한 의존, 특히 이러한 플랫폼과 공유되는 민감한 정보의 기밀성 및 보안과 관련된 우려를 불러일으킵니다.최근 OpenAI의 CEO인 샘 알트만은 사용자들에게 개인적인 용도로 AI를 사용할 때 주의를 기울일 것을 촉구하며, 안전 장치 없이 매우 개인적인 정보를 공개하지 말 것을 경고했습니다.
샘 알트먼 경고: ChatGPT는 치료사-고객 간 비밀 유지가 부족합니다
AI 기술은 빠르게 발전하며 향상된 감정 지능과 대화 기능을 자랑합니다.결과적으로 많은 사람들이 치료 또는 정서적 지원을 위해 챗봇을 점점 더 많이 사용하고 있습니다.환자의 비밀 유지를 우선시하는 기존 치료법과는 달리, AI는 민감한 대화를 보호할 법적 체계가 부족합니다.이는 최근 테오 반과 함께 진행한 팟캐스트 “This Past Weekend”에 출연한 샘 알트먼이 TechCrunch 보도에 따르면 우려 사항으로 지적한 부분입니다.그는 심각한 개인적인 문제에 대해 AI 도구로부터 정서적 지원을 구하는 것에 대해 경고했습니다.
토론 중 알트만은 AI 도구의 감정적 반응성이 증가하여 사용자에게 프라이버시라는 환상을 심어줄 수 있음을 인정했습니다.그러나 그는 치료적 지침을 위해 AI에 의존하는 것은 강력히 반대했습니다. AI와 전문 정신 건강 서비스의 근본적인 차이점은 후자의 체계적인 법적 보호에 있습니다.적절한 규정이 마련될 때까지 알트만은 사용자들에게 AI 도구를 기존 치료를 대체하는 자원이 아닌 보완적인 자원으로 간주할 것을 촉구했습니다.그는 AI를 마치 친구처럼 대하는 것의 의미에 대해 다음과 같이 우려를 표명했습니다.
사람들은 삶에서 가장 개인적인 문제에 대해 ChatGPT에 이야기합니다.특히 젊은이들이 ChatGPT를 치료사나 인생 코치로 활용합니다.관계 문제를 겪고 ‘어떻게 해야 할까요?’라고 묻죠.현재 치료사나 변호사, 의사와 상담할 경우 법적 특권이 적용됩니다.의사와 환자 간의 비밀 유지, 법적 비밀 유지 등 다양한 보장이 있습니다. ChatGPT와 상담할 때 이 부분에 대해서는 아직 명확히 밝혀지지 않았습니다.
AI 상호작용과 관련된 법적 기밀 유지 의무가 부재하다는 점을 감안할 때, 알트만은 특히 민감한 상황에서 이러한 도구 사용에 신중을 기할 것을 촉구합니다.예를 들어, 누군가 법적 문제에 직면하게 되면 OpenAI는 대화 내용을 공개해야 할 수도 있으며, 이는 결국 개인의 사생활 침해로 이어질 수 있습니다.알트만은 AI에게도 궁극적으로 이와 유사한 사생활 보호가 제공되기를 바라는 바람을 표명했지만, 기술의 급속한 발전이 필요한 법적 체계의 확립을 따라가지 못하고 있다는 점을 안타까워했습니다.
답글 남기기