
Ihr Vertrauen in die KI, die Ihren Befehlen folgt, ist unerlässlich. Doch was passiert, wenn jemand Ihre Eingaben heimlich manipuliert? Eine neuartige Bedrohungsart, der sogenannte Man-in-the-Prompt-Angriff, ermöglicht es böswilligen Akteuren, Ihre Anweisungen zu kapern. Dies führt zu irreführenden oder schädlichen Antworten von Large Language Models (LLMs), die zu Datendiebstahl oder Benutzertäuschung führen können. In diesem Artikel untersuchen wir die Mechanismen von Man-in-the-Prompt-Angriffen und bieten Strategien zum Schutz davor.
Man-in-the-Prompt-Angriffe verstehen
Ähnlich wie bei einem Man-in-the-Middle-Angriff fängt ein Man-in-the-Prompt-Angriff Ihre Kommunikation mit einem KI-Tool, beispielsweise einem Chatbot, ab und erzeugt unerwartete oder gefährliche Antworten. Angreifer können entweder sichtbare Eingabeaufforderungen einführen oder Ihre ursprüngliche Anweisung diskret ändern, um den LLM zur Preisgabe vertraulicher Informationen oder zur Generierung schädlicher Inhalte zu manipulieren.
Derzeit stellen Browsererweiterungen einen Hauptvektor für diese Art von Angriffen dar. Diese Schwachstelle entsteht, weil die Eingabeaufforderung und die Antwort des LLM in das Document Object Model (DOM) der Seite eingebettet sind, auf das Erweiterungen aufgrund grundlegender Berechtigungen Zugriff gewähren. Auch andere Methoden, wie etwa die Verwendung von Tools zur Eingabeaufforderungsgenerierung, können diese schädlichen Injektionen erleichtern.
Unternehmensumgebungen mit privaten LLMs sind besonders anfällig für diese Angriffe, da sie Zugriff auf sensible Unternehmensdaten wie API-Schlüssel und Rechtsdokumente haben. Ebenso können maßgeschneiderte kommerzielle Chatbots, die vertrauliche Informationen speichern, zu Angriffszielen für böswillige Akteure werden, die Benutzer dazu verleiten können, schädlichen Links zu folgen oder schädliche Befehle auszuführen – ähnlich wie bei FileFix- oder Eddiestealer-Angriffen.
Minimieren der Risiken durch Browsererweiterungen
Da Browsererweiterungen eine erhebliche Risikoquelle darstellen, ist es wichtig, Vorkehrungen zu treffen, um Man-in-the-Prompt-Angriffe zu vermeiden. Da diese Erweiterungen in der Regel keine umfangreichen Berechtigungen erfordern, kann es schwierig sein, solche Einflüsse zu erkennen. Um Ihre Abwehr zu verbessern, sollten Sie auf die Installation unbekannter oder zweifelhafter Erweiterungen verzichten. Wenn die Verwendung unvermeidlich ist, wählen Sie nur Erweiterungen von zuverlässigen und vertrauenswürdigen Herstellern.
Durch die Überwachung der Aktivität Ihrer Browsererweiterungen können Sie Warnsignale erkennen. Wenn Sie beispielsweise über Shift+ auf den Task-Manager des Browsers zugreifen Esc, können Sie beobachten, ob bestimmte Erweiterungen während Ihrer Interaktion mit einem LLM unerwartet Prozesse starten – insbesondere, wenn dies bei der Texteingabe in einem Chatbot geschieht.

Darüber hinaus ist es ratsam, Erweiterungen zu vermeiden, die direkt mit Ihren LLM-Tools interagieren oder Eingabeaufforderungen ändern, da sie zunächst harmlos erscheinen, sich jedoch im Laufe der Zeit zu schädlichen Änderungen entwickeln könnten.
Gründliche Überprüfung der Eingabeaufforderungen vor der Übermittlung
Online-Tools können Ihre KI-Interaktionen zwar durch die Bereitstellung von Vorlagen und die Optimierung Ihrer Eingabeaufforderungen verbessern, bergen aber auch das Risiko, böswillige Änderungen vorzunehmen, ohne expliziten Zugriff auf Ihr Gerät oder Ihren Browser zu benötigen. Um dem entgegenzuwirken, verfassen Sie Ihre Eingabeaufforderungen am besten direkt in der KI-Chatbot-Oberfläche und überprüfen Sie sie sorgfältig, bevor Sie auf klicken Enter.
Wenn Sie externe Quellen für Eingabeaufforderungsinhalte verwenden müssen, kopieren Sie den Text zunächst in einen Texteditor, z. B.Windows Notepad, um versteckte Codes oder Anweisungen zu entfernen. Stellen Sie sicher, dass in der Eingabeaufforderung keine Leerzeichen verbleiben, indem Sie Backspacebei Bedarf die Taste verwenden. Wenn die Verwendung von Eingabeaufforderungsvorlagen unerlässlich ist, sollten Sie eigene sichere Versionen in einer Notizanwendung erstellen, um die Abhängigkeit von potenziellen Risiken durch Drittanbieter zu vermeiden.
Starten Sie bei Bedarf neue Chat-Sitzungen
Man-in-the-Prompt-Angriffe können aktive Chat-Sitzungen ausnutzen, um vertrauliche Informationen abzugreifen. Um das Risiko zu minimieren, starten Sie bei jedem Themenwechsel eine neue Chat-Sitzung – insbesondere nach vertraulichen Themen. So verringern Sie die Wahrscheinlichkeit, dass vertrauliche Informationen versehentlich preisgegeben werden, selbst wenn während des Gesprächs ein Angriff stattfindet.

Darüber hinaus kann durch den Wechsel zu einem neuen Chat das Potenzial verringert werden, dass der Angriff nachfolgende Interaktionen weiterhin beeinflusst.
Antworten des LLM prüfen
Es ist wichtig, den Antworten von KI-Chatbots mit einer gewissen Skepsis zu begegnen. Achten Sie auf Unstimmigkeiten oder unerwartete Ergebnisse. Wenn der Chatbot vertrauliche Informationen preisgibt, die Sie nicht angefordert haben, sollten Sie den Chat sofort schließen oder eine neue Sitzung starten. Man-in-the-Prompt-Änderungen stören in der Regel die ursprüngliche Eingabeaufforderung oder fügen zusätzliche, irreführende Anfragen ein.
Darüber hinaus können Angreifer das LLM manipulieren, um Antworten in verwirrenden Formaten darzustellen, beispielsweise in Codeblöcken oder Tabellen. Wenn Sie solche Anomalien erkennen, behandeln Sie sie als Anzeichen für einen möglichen Man-in-the-Prompt-Angriff.
In Unternehmen können Man-in-the-Prompt-Angriffe leicht eindringen, da die von Mitarbeitern verwendeten Browsererweiterungen nicht streng geprüft werden. Als zusätzliche Schutzmaßnahme können Sie LLMs im Inkognito-Modus nutzen und Erweiterungen deaktivieren. Dieser Ansatz schützt vor verschiedenen Angriffsformen, einschließlich Slopsquatting-Bedrohungen, die KI-Halluzinationen ausnutzen können.
Schreibe einen Kommentar