허위 정보 연구자는 인용을 위해 ChatGPT를 사용한다고 주장하고 AI ‘환각’에 대한 인식을 부인하며 허위 정보를 추가합니다.

허위 정보 연구자는 인용을 위해 ChatGPT를 사용한다고 주장하고 AI ‘환각’에 대한 인식을 부인하며 허위 정보를 추가합니다.

인공지능(AI) 기술이 계속 발전함에 따라 서면 커뮤니케이션을 초안하고 제시하는 방법이 상당한 변화를 겪고 있습니다. 그러나 콘텐츠 개발을 위한 AI 의존도가 커지면서 새로운 과제가 생겨났습니다. 허위 정보 전문가와 관련된 최근 사건은 AI가 생성한 텍스트를 사용하는 것과 관련된 복잡성을 보여줍니다. 이 개인은 AI를 사용하여 법적 문서를 작성한 후 비난을 받았는데, 이 문서에는 조작된 인용문이 포함되어 있었습니다. 아이러니하게도 이 법적 제출은 선거를 앞두고 유권자를 오도할 수 있는 AI가 생성한 자료의 사용에 반대하는 것이 목적이었습니다.

잘못된 정보 전문가의 예상치 못한 AI 함정

스탠포드 대학 교수이자 허위 정보 분야의 저명한 전문가인 제프 핸콕은 선거 결과를 왜곡할 수 있는 딥페이크 기술을 금지하도록 고안된 미네소타 주법을 지지하는 진술서를 제출했습니다. 안타깝게도 AI가 유권자에게 미치는 영향을 막기 위해 의도된 진술서 자체에도 AI의 부정확한 내용이 포함되어 있어 그의 주장의 신뢰성이 훼손되었습니다.

이후의 선언에서 핸콕은 인용문을 정리하기 위해 ChatGPT-4o를 사용했다는 것을 인정했습니다 . 그러나 그는 이 도구가 허위 정보나 참조를 생성할 수 있다는 사실을 알지 못했다고 주장했습니다. 핸콕은 문서의 주요 내용을 초안하는 데 AI 도구를 사용하지 않았으며 인용 오류는 의도치 않은 것이라고 설명했습니다.

“저는 선언문의 내용을 작성하고 검토했으며, 선언문에 제시된 모든 주장을 확고히 지지합니다. 이 모든 주장은 해당 분야의 최신 학술 연구에 의해 뒷받침되며 AI 기술이 잘못된 정보와 사회적 영향에 미치는 영향에 대한 전문가로서의 제 의견을 반영합니다.”

더 자세히 설명하면서, 핸콕은 인용 목록을 편집하기 위해 Google Scholar와 GPT-4o를 모두 활용했지만 AI가 문서의 주요 주장을 만드는 데 사용되지 않았다고 반복했습니다. 그는 AI ‘환각’이라는 개념에 익숙하지 않아 잘못된 인용이 발생했다는 것을 솔직하게 인정했습니다. 그럼에도 불구하고 핸콕은 선언문에 명시된 실질적인 요점을 고수했으며, 이러한 요점이 AI와 관련된 인용 오류에 가려져서는 안 된다고 주장했습니다.

“저는 법원이나 변호사를 오도할 의도가 없었습니다. 이로 인해 혼란이 생긴 것에 대해 진심으로 유감을 표합니다. 그럼에도 불구하고 저는 선언문의 모든 실질적 요점을 확고히 지지합니다.”

핸콕의 경험의 의미는 법률 분야에서 AI 도구를 사용하는 것에 대한 중요한 의문을 제기합니다. 법원에서 그의 설명을 고려할 수 있지만, 이 사건은 AI를 공식 설정에 통합하는 것과 관련된 고유한 위험을 강조합니다.

출처 및 이미지

답글 남기기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다