了解即時攻擊:如何保護自己

了解即時攻擊:如何保護自己

依賴人工智慧執行指令至關重要,但如果有人暗中操縱你的輸入,會發生什麼事?一種名為「即時人為攻擊」的新型威脅,允許惡意行為者劫持你的指令,導致大型語言模型 (LLM) 產生誤導性或有害的回應,從而可能導致資料竊取或用戶欺騙。在本文中,我們將深入探討「即時人為攻擊」的機制,並提供相應的防禦策略。

了解即時攻擊

與中間人攻擊類似,提示攻擊會攔截你與人工智慧工具(例如聊天機器人)的通信,從而獲取意想不到或危險的答案。攻擊者可以引入可見的提示,也可以悄悄修改你的原始指令,操縱法學碩士(LLM)洩露機密資訊或產生有害內容。

目前,瀏覽器擴充功能是此類攻擊的主要載體。此漏洞的出現是因為 LLM 的提示輸入和回應嵌入在頁面的文件物件模型 (DOM) 中,而基本權限允許擴充功能存取該模型。其他方法(例如使用提示產生器工具)也可以促進這些有害的注入。

使用私有LLM的企業環境尤其容易受到此類攻擊,因為它們可以存取敏感的公司數據,包括API金鑰和法律文件。同樣,儲存機密資訊的定製商業聊天機器人可能會成為惡意行為者的令牌,他們可以誘騙用戶點擊有害連結或執行惡意命令,類似於FileFix或Eddiestealer攻擊。

降低瀏覽器擴充功能的風險

鑑於瀏覽器擴充功能是重大風險來源,採取預防措施以避免即時攻擊至關重要。由於這些擴充功能通常不需要過多權限,因此檢測此類影響可能頗具挑戰性。為了增強防禦能力,請避免安裝未知或可疑的擴充功能。如果無法避免使用,請僅選擇由可靠且值得信賴的發布商開發的擴充功能。

監控瀏覽器擴充功能的活動可以發現一些危險訊號。例如,透過使用Shift+存取瀏覽器的任務管理器Esc,您可以觀察某些擴充功能在與 LLM 互動期間是否會意外啟動進程——尤其是在聊天機器人中輸入文字時。

瀏覽器任務管理器進程

此外,建議避免使用直接與 LLM 工具互動或修改提示的擴展,因為它們最初可能看起來是無害的,但隨著時間的推移可能會演變為注入有害的變化。

提交前仔細檢查提示

雖然線上提示工具可以透過提供範本和優化提示來增強您的AI交互,但它們也存在插入惡意修改的風險,而無需明確存取您的裝置或瀏覽器。為了解決這個問題,最好直接在AI聊天機器人介面中編寫提示,並在按下按鈕之前仔細檢查Enter

如果必須使用外部來源的提示內容,請先將文字複製到純文字編輯器(例如 Windows 記事本)中,以消除任何隱藏的程式碼或指令。根據Backspace需要使用鍵,確保提示中沒有空格。如果必須使用提示模板,請考慮在筆記應用程式中建立自己的安全版本,以避免依賴潛在的第三方風險。

必要時發起新的聊天會話

即時攻擊 (Man-in-the-prompt) 可以利用活躍的聊天會話來收集敏感資訊。為了最大程度地降低風險,請在每次話題轉換時(尤其是在討論機密話題之後)發起新的聊天會話。這種做法可以降低無意中洩漏敏感資訊的可能性,即使在對話過程中發生攻擊。

ChatGPT 左側面板顯示新聊天

此外,轉到新的聊天可以抑制攻擊繼續影響後續互動的可能性。

仔細檢討法學碩士的回复

務必對人工智慧聊天機器人產生的回應保持一定程度的懷疑態度。留意任何不一致或意外的輸出。如果聊天機器人洩露了您未主動請求的敏感訊息,請考慮立即關閉聊天或開始新的會話。人為修改提示通常會擾亂原始提示或插入額外的誤導性請求。

此外,攻擊者可能會操縱LLM,使其以令人困惑的格式(例如程式碼區塊或表格)呈現回應。一旦發現這些異常,就應將其視為潛在的即時入侵的指標。

在企業環境中,由於缺乏對員工使用的瀏覽器擴充功能的嚴格審查,即時攻擊很容易滲透。作為額外的保護措施,請考慮在隱身模式下使用 LLM,並停用擴充功能。這種方法有助於防禦各種形式的攻擊,包括可能利用 AI 幻覺的惡意攻擊。

來源和圖片

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *