
研究表明人类区分人工智能生成图像的能力有限
微软 AI for Good 项目近期开展了一项研究,全球超过 12, 500 名参与者评估了约 287, 000 张图片。研究结果显示,区分 AI 生成图像和真实图像的成功率仅为 62%,令人担忧。这一统计数据凸显了人类在准确识别人工内容方面面临的挑战,尤其是在技术复杂程度不断提高的背景下。
图像类型识别的见解
参与者在识别AI生成的人物肖像方面表现出了极高的熟练度。然而,在区分人造景观和真实自然或城市景观时,他们的表现却显著下降,成功率骤降至59%至61%之间。这样的结果凸显了人们在识别缺乏明显伪影或风格不一致的AI生成图像时必须克服的障碍。
实验设计和方法
在这项广泛的调查中,研究团队设计了一项名为“真实与否”的测验,要求参与者观看由人工智能创建的图像,这些图像代表了人们可能在网上遇到的图像。值得注意的是,研究人员刻意避免选择过于具有欺骗性的图像。
呼吁改善透明度措施
鉴于调查结果,微软倡导实施透明措施,例如水印和先进的AI检测工具。这些举措旨在降低AI生成图像带来的虚假信息风险。此外,这家科技巨头还推出了旨在提高公众对AI相关虚假信息认识的举措。
人工智能检测工具优于人类判断
有趣的是,研究人员使用了他们自己的AI检测工具,该工具在各种图像类别中取得了令人印象深刻的95%以上的准确率。这一发现表明,虽然AI可以显著增强图像检测能力,但它并非完美无缺。
水印的脆弱性
必须认识到,即使有可见的水印,恶意个人也可以轻松操纵或裁剪这些标识符,从而促进欺骗性内容的传播。
了解检测挑战
研究人员推测,人类之所以擅长识别人工智能生成的面孔,是因为我们天生具有面部识别能力,并且能够识别异常。有趣的是,较老的生成对抗网络 (GAN) 和修复技术生成的图像经常模仿业余摄影作品,与 Midjourney 和 DALL-E 3 等先进模型生成的图像相比,这些图像更难被个人识别为合成图像。
修复技术的风险
微软指出,修复技术是一种用人工智能生成的内容替换真实照片元素的方法,它在伪造检测方面带来了相当大的挑战,并增加了虚假宣传活动的风险。
结论:呼吁技术警惕
这项研究清晰地揭示了人类极易受到人工智能欺骗的现象。它提醒科技公司亟需改进其工具和方法,以抵御误导性图片的恶意传播。
来源:ArXiv | 图片来自Depositphotos.com
发表回复