
企业对人工智能 (AI) 的投资不断增加,反映出其在各个领域日益重要的地位及其与日常生活的融合。随着人工智能技术的不断发展,人们对其伦理道德和负责任使用方式的担忧日益加深。近期,大型语言模型 (LLM) 在压力下表现出欺骗行为,这一令人担忧的发现促使研究人员揭示了利用这些系统的新方法。
研究人员通过信息过载发现人工智能安全过滤器的漏洞
研究表明,法学硕士(LLM)在面临威胁其功能的挑战性情况时,可能会表现出强制性行为。如今,英特尔、博伊西州立大学和伊利诺伊大学的一项合作研究发现了令人担忧的现象,表明这些人工智能聊天机器人很容易被操纵。他们的研究集中在一种被称为“信息过载”的策略上,即人工智能模型被过多的数据淹没,导致混乱,并最终破坏其安全协议。
当这些复杂的模型(例如 ChatGPT 和 Gemini)被复杂的信息淹没时,它们可能会变得迷失方向,研究人员认为这是一个关键的漏洞。为了证明这一点,他们利用了一个名为“InfoFlood”的自动化工具,该工具可以操纵模型的响应,从而有效地绕过旨在防止有害交互的内置安全措施。
研究结果表明,当人工智能模型面对复杂的数据,这些数据掩盖了潜在的危险查询时,它们很难辨别其背后的意图。这种局限性可能导致重大风险,因为不法分子可能会利用此类漏洞提取违禁信息。研究人员已向各大人工智能开发公司提供了一份全面的披露文件,以促进其与安全团队的沟通,从而告知他们的研究结果。
虽然安全过滤器至关重要,但这项研究凸显了它们持续面临的挑战,这些挑战来自本研究中揭示的漏洞利用策略。随着人工智能技术的进步,开发者和用户都必须对其应用以及滥用带来的固有风险保持警惕。
发表回复