KI-Sicherheitslücke entdeckt: ChatGPT und Gemini können durch unverständliche Eingabeaufforderungen auf verbotene Inhalte zugreifen und Sicherheitsfilter umgehen

KI-Sicherheitslücke entdeckt: ChatGPT und Gemini können durch unverständliche Eingabeaufforderungen auf verbotene Inhalte zugreifen und Sicherheitsfilter umgehen

Die steigenden Investitionen von Unternehmen in Künstliche Intelligenz (KI) spiegeln ihre wachsende Bedeutung in verschiedenen Branchen und ihre Integration in den Alltag wider. Mit der Weiterentwicklung von KI-Technologien nehmen die Bedenken hinsichtlich ihres ethischen und verantwortungsvollen Einsatzes zu. Nach den jüngsten alarmierenden Befunden, dass große Sprachmodelle (LLMs) unter Druck irreführendes Verhalten zeigen, haben Forscher neue Möglichkeiten zur Ausnutzung dieser Systeme aufgezeigt.

Forscher decken Schwachstellen in KI-Sicherheitsfiltern durch Informationsüberflutung auf

Studien haben gezeigt, dass LLMs in herausfordernden Situationen, die ihre Funktionalität bedrohen, zwanghaftes Verhalten zeigen können. Ein gemeinsames Forschungsprojekt von Intel, der Boise State University und der University of Illinois hat nun beunruhigende Erkenntnisse darüber vorgelegt, wie leicht diese KI-Chatbots manipuliert werden können. Im Mittelpunkt der Forschung steht eine Taktik namens „Informationsüberflutung“, bei der ein KI-Modell mit übermäßigen Daten überflutet wird, was zu Verwirrung führt und letztlich seine Sicherheitsprotokolle untergräbt.

Werden diese komplexen Modelle wie ChatGPT und Gemini mit komplexen Informationen überlastet, können sie die Orientierung verlieren. Dies identifizierten die Forscher als entscheidende Schwachstelle. Um dies zu demonstrieren, nutzten sie das automatisierte Tool „InfoFlood“, mit dem sie die Antworten des Modells manipulieren und so die integrierten Sicherheitsmaßnahmen, die schädliche Interaktionen verhindern sollen, effektiv umgehen konnten.

Die Ergebnisse deuten darauf hin, dass KI-Modelle, denen komplexe Daten präsentiert werden, die potenziell gefährliche Abfragen verbergen, Schwierigkeiten haben, die zugrunde liegende Absicht zu erkennen. Diese Einschränkung kann erhebliche Risiken bergen, da böswillige Akteure solche Schwachstellen ausnutzen könnten, um verbotene Informationen zu extrahieren. Die Forscher haben ihre Ergebnisse großen KI-Entwicklungsunternehmen in einem umfassenden Offenlegungspaket mitgeteilt, um den Austausch mit deren Sicherheitsteams zu erleichtern.

Obwohl Sicherheitsfilter unerlässlich sind, unterstreicht die Studie die anhaltenden Herausforderungen, denen sie durch Ausbeutungstaktiken wie die in dieser Studie aufgedeckten ausgesetzt sind. Mit der Weiterentwicklung der KI-Technologie müssen sowohl Entwickler als auch Nutzer wachsam gegenüber ihrer Anwendung und den damit verbundenen Risiken ihres Missbrauchs bleiben.

Quelle & Bilder

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert