錯誤訊息研究人員聲稱使用 ChatGPT 進行引用,否認意識到人工智慧「幻覺」添加虛假訊息

錯誤訊息研究人員聲稱使用 ChatGPT 進行引用,否認意識到人工智慧「幻覺」添加虛假訊息

隨著人工智慧 (AI) 技術的不斷發展,起草和呈現書面溝通的方法正在發生重大轉變。然而,內容開發對人工智慧的日益依賴帶來了新的挑戰。最近涉及錯誤資訊專家的事件證明了使用人工智慧生成文字的複雜性。該人在利用人工智慧準備一份法律文件後受到批評,其中包含誤導性的捏造引文。諷刺的是,這份法律文件旨在反對使用人工智慧產生的資料,因為這些資料可能會在選舉前誤導選民。

錯誤訊息專家不可預見的人工智慧陷阱

史丹佛大學教授、著名錯誤訊息專家傑夫漢考克 (Jeff Hancock) 提交了一份宣誓書,支持明尼蘇達州一項旨在禁止可能扭曲選舉結果的 Deep Fake 技術的法律。不幸的是,這份旨在對抗人工智慧對選民影響的宣誓書也包含人工智慧的不準確之處,從而損害了他的主張的可靠性。

在隨後的聲明中,漢考克承認使用ChatGPT-4o來組織引用。然而,他聲稱不知道該工具可能會產生虛假資訊或參考。漢考克強調,他沒有使用人工智慧工具起草文件的主要內容,並稱引用錯誤是無意的。

「我撰寫並審查了該聲明的實質內容,我堅定支持其中提出的每一項主張,所有這些主張都得到了該領域最新學術研究的支持,並反映了我作為專家對人工智慧影響的看法錯誤資訊及其社會影響的技術。

漢考克進一步闡述說,他利用 Google Scholar 和 GPT-4o 來編制引文列表,但重申人工智慧並未用於創建該文件的主要論點。他坦言自己不熟悉人工智慧「幻覺」的概念,這導致了錯誤的引用。儘管如此,漢考克仍然致力於聲明中提出的實質要點,並堅持認為這些要點不應被與人工智慧相關的引用錯誤所掩蓋。

“我無意誤導法庭或律師。對於由此可能造成的任何混亂,我表示誠摯的歉意。儘管如此,我堅定支持宣言中的所有實質觀點。

漢考克的經歷引發了在法律領域使用人工智慧工具的關鍵問題。雖然法院可能會考慮他的解釋,但這一事件強調了將人工智慧融入正式環境所帶來的固有風險。

來源和圖片

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *