
OpenAI는 의료, 교육 등 다양한 분야에서 활용되고 있는 ChatGPT의 등장으로 인공지능의 판도를 완전히 바꿔놓았습니다.그럼에도 불구하고, OpenAI는 자사 AI 기술의 오용에 대한 우려를 표명해 왔습니다.최근 보고서에 따르면, OpenAI는 특히 중국에서 시작된, 여론을 조작하기 위한 유해한 의도와 관련된 여러 비밀 작전을 적발하고 해체했습니다.
조사 결과, 선전 목적으로 ChatGPT가 무단으로 사용된 사실이 드러났습니다.
AI 역량의 급속한 확장과 다양한 기술 통합은 기술 커뮤니티 내에서 심각한 윤리적 문제를 제기하고 있습니다. AI의 윤리적 사용에 대한 책임이 서비스 제공업체에 점점 더 많이 부여됨에 따라, OpenAI와 같은 기업들은 책임 있는 개발 관행을 확립해야 할 의무를 지고 있습니다.윤리 기준을 강화하기 위한 부단한 노력에도 불구하고, 악용 사례는 계속해서 발생하고 있습니다. OpenAI는 특히 중국에서 유래된 것으로 추정되는 선전 목적으로 ChatGPT를 활용하는 여러 소셜 미디어 캠페인을 적발하고 중단시켰습니다.
OpenAI는 총 10건의 활동을 중단시켰으며, 그중 4건은 중국의 이익과 구체적으로 연관되어 있었습니다.이러한 활동들은 ChatGPT를 활용하여 정치적으로 민감한 콘텐츠를 생성하고 여러 플랫폼에서 특정 인물을 사칭하여 여론을 조작했습니다.”엉클 스팸(Uncle Spam)”이라는 이름의 주목할 만한 활동 중 하나는 미국의 민감한 문제를 중심으로 도발적인 이야기를 만들어내는 것이었습니다. OpenAI는 이러한 남용이 한 국가에만 국한되지 않는다는 점을 지적했습니다.러시아, 이란, 북한을 포함한 다른 국가들도 조작 목적으로 이 기술을 유사하게 악용해 왔습니다.
NPR 보고서 에 따르면, ChatGPT의 악용은 단순한 선전물 제작에 그치지 않습니다.보고서에 따르면 이러한 게시물은 더욱 신뢰성 있고 접근하기 쉽게 보이도록 전략적으로 확대되었으며, 이는 여론에 미칠 수 있는 잠재적 영향에 대한 우려를 불러일으켰습니다.더 나아가, 이러한 오용은 챗봇이 이러한 이니셔티브를 어떻게 지원했는지를 보여주는 성과 평가서 작성으로까지 확대되었습니다.보고서는 다음과 같은 점을 강조합니다.
중국의 선전가들은 ChatGPT를 사용하여 소셜 미디어 사이트에 게시물과 댓글을 작성하고, 상사의 업무에 대한 세부 내용을 담은 성과 평가서도 작성합니다.
OpenAI의 정보 및 조사팀의 저명한 조사관인 벤 니모는 이러한 작전으로 인해 점점 더 심각해지는 위협에 대해 언급했습니다.
중국에서는 점점 더 다양한 전술을 사용한 비밀 작전이 확대되고 있습니다.
이러한 작전에는 분석가, 언론인, 정치인을 대상으로 허위 정보를 이용해 관계를 구축하고 민감한 정보를 빼내는 이메일 작성도 포함되었습니다.전략적 조작을 위한 AI 도구 활용은 심각한 윤리적 문제를 야기하므로, 기업은 이러한 관행을 억제하기 위한 경계와 사전 조치를 취해야 합니다.
답글 남기기