虚假信息研究人员声称使用 ChatGPT 进行引用,否认意识到人工智能“幻觉”会添加虚假信息

虚假信息研究人员声称使用 ChatGPT 进行引用,否认意识到人工智能“幻觉”会添加虚假信息

随着人工智能 (AI) 技术的不断发展,起草和呈现书面交流的方式正在发生重大转变。然而,对内容开发越来越依赖人工智能也带来了新的挑战。最近一起涉及虚假信息专家的事件表明了使用人工智能生成的文本的复杂性。此人因利用人工智能准备法律文件而受到批评,该文件包含误导性的伪造引文。具有讽刺意味的是,这份法律文件旨在反对使用可能在选举前误导选民的人工智能生成的材料。

虚假信息专家无法预见的人工智能陷阱

斯坦福大学教授、著名虚假信息专家杰夫·汉考克提交了一份宣誓书,支持明尼苏达州的一项法律,该法律旨在禁止可能扭曲选举结果的 Deep Fake 技术。不幸的是,这份旨在打击人工智能对选民影响的宣誓书也包含人工智能的不准确之处,削弱了他的说法的可靠性。

在随后的声明中,汉考克承认使用ChatGPT-4o来组织引文。但他声称不知道该工具可能会生成虚假信息或参考资料。汉考克强调,他没有使用该 AI 工具来起草文件的主要内容,并将引文错误描述为无意的。

“我撰写并审查了声明的内容,我坚定地支持其中提出的每一项主张,所有这些主张都得到了该领域最新学术研究的支持,并反映了我作为专家对人工智能技术对错误信息及其社会影响的看法。”

汉考克进一步阐述道,他利用 Google Scholar 和 GPT-4o 编制了引文列表,但重申人工智能并未用于创建该文件的主要论点。他坦率地承认自己不熟悉人工智能“幻觉”的概念,这导致了错误的引用。尽管如此,汉考克仍然致力于宣言中提出的实质性观点,并坚持认为这些观点不应被与人工智能相关的引用错误所掩盖。

“我无意误导法院或律师。我对由此造成的任何混乱表示诚挚的歉意。话虽如此,我坚决支持声明中的所有实质性观点。”

汉考克的经历引发了人们对法律领域使用人工智能工具的质疑。尽管法院可能会考虑他的解释,但这一事件凸显了将人工智能融入正式场合的固有风险。

来源和图片

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注