了解即时攻击:如何保护自己

了解即时攻击:如何保护自己

依赖人工智能执行指令至关重要,但如果有人暗中操纵你的输入,会发生什么?一种名为“即时人为攻击”的新型威胁,允许恶意行为者劫持你的指令,导致大型语言模型 (LLM) 产生误导性或有害的响应,从而可能导致数据盗窃或用户欺骗。在本文中,我们将深入探讨“即时人为攻击”的机制,并提供相应的防御策略。

了解即时攻击

与中间人攻击类似,提示攻击会拦截你与人工智能工具(例如聊天机器人)的通信,从而获取意想不到或危险的答案。攻击者可以引入可见的提示,也可以悄悄修改你的原始指令,操纵法学硕士(LLM)泄露机密信息或生成有害内容。

目前,浏览器扩展程序是此类攻击的主要载体。此漏洞的出现是因为 LLM 的提示输入和响应嵌入在页面的文档对象模型 (DOM) 中,而基本权限允许扩展程序访问该模型。其他方法(例如使用提示生成器工具)也可以促进这些有害的注入。

使用私有LLM的企业环境尤其容易受到此类攻击,因为它们可以访问敏感的公司数据,包括API密钥和法律文件。同样,存储机密信息的定制商业聊天机器人可能会成为恶意行为者的令牌,他们可以诱骗用户点击有害链接或执行恶意命令,类似于FileFix或Eddiestealer攻击。

降低浏览器扩展的风险

鉴于浏览器扩展程序是重大风险源,采取预防措施以避免即时攻击至关重要。由于这些扩展程序通常不需要过多权限,因此检测此类影响可能颇具挑战性。为了增强防御能力,请避免安装未知或可疑的扩展程序。如果无法避免使用,请仅选择由可靠且值得信赖的发布商开发的扩展程序。

监控浏览器扩展程序的活动可以发现一些危险信号。例如,通过使用Shift+访问浏览器的任务管理器Esc,您可以观察某些扩展程序在与 LLM 交互期间是否会意外启动进程——尤其是在聊天机器人中输入文本时。

浏览器任务管理器进程

此外,建议避免使用直接与 LLM 工具交互或修改提示的扩展,因为它们最初可能看起来是无害的,但随着时间的推移可能会演变为注入有害的变化。

提交前仔细检查提示

虽然在线提示工具可以通过提供模板和优化提示来增强您的AI交互,但它们也存在插入恶意修改的风险,而无需明确访问您的设备或浏览器。为了解决这个问题,最好直接在AI聊天机器人界面中编写提示,并在按下按钮之前仔细检查Enter

如果必须使用外部来源的提示内容,请先将文本复制到纯文本编辑器(例如 Windows 记事本)中,以消除任何隐藏的代码或指令。根据Backspace需要使用键,确保提示中没有空格。如果必须使用提示模板,请考虑在笔记应用程序中创建自己的安全版本,以避免依赖潜在的第三方风险。

必要时发起新的聊天会话

即时攻击 (Man-in-the-prompt) 可以利用活跃的聊天会话来收集敏感信息。为了最大程度地降低风险,请在每次话题转换时(尤其是在讨论机密话题之后)发起新的聊天会话。这种做法可以降低无意中泄露敏感信息的可能性,即使在对话过程中发生攻击。

ChatGPT 左侧面板显示新聊天

此外,转到新的聊天可以抑制攻击继续影响后续互动的可能性。

仔细审查法学硕士的回复

务必对人工智能聊天机器人生成的响应保持一定程度的怀疑态度。留意任何不一致或意外的输出。如果聊天机器人泄露了您未主动请求的敏感信息,请考虑立即关闭聊天或开始新的会话。人为修改提示通常会扰乱原始提示或插入额外的误导性请求。

此外,攻击者可能会操纵LLM,使其以令人困惑的格式(例如代码块或表格)呈现响应。一旦发现这些异常,就应将其视为潜在的即时入侵的指标。

在企业环境中,由于缺乏对员工使用的浏览器扩展程序的严格审查,即时攻击很容易渗透。作为一项额外的保护措施,请考虑在隐身模式下使用 LLM,并禁用扩展程序。这种方法有助于防御各种形式的攻击,包括可能利用 AI 幻觉的恶意攻击。

来源和图片

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注