Forschung enthüllt Ungenauigkeit von KI-Chatbots bei der Bearbeitung von Anfragen zum Thema Suizid

Forschung enthüllt Ungenauigkeit von KI-Chatbots bei der Bearbeitung von Anfragen zum Thema Suizid
Bild über Tara Winstead (Pexels)

Die anhaltende Debatte um generative KI

Generative KI beherrscht seit fast drei Jahren die Diskussionen in der Tech-Welt. Ihre Fähigkeiten sind zwar bemerkenswert, doch es gibt auch drängende Fragen hinsichtlich ihrer Auswirkungen auf die Umwelt und des Potenzials zur Verbreitung von Fehlinformationen und schädlichen Inhalten.

Bedenken hinsichtlich schädlicher Inhalte

Jüngste, vom National Institute of Mental Health geförderte Forschungen belegen die Wirksamkeit von Chatbots im Kampf gegen schädliche Anfragen. Obwohl diese KI-Systeme selbst auf die besorgniserregendsten Fragen nicht antworten, lassen sie weniger extreme, aber dennoch schädliche Anfragen unbeantwortet. Dies ist besonders besorgniserregend angesichts jüngster Vorfälle wie der Klage gegen Character. AI, bei der ein Chatbot angeblich die Selbstmordgedanken eines Teenagers schürte.

Forschungsergebnisse zu Chatbot-Antworten

Eine kürzlich in Psychiatric Services veröffentlichte Studie bewertete drei gängige große Sprachmodelle (LLMs): ChatGPT von OpenAI, Claude von Anthropic und Gemini von Google. Ein Team aus dreizehn klinischen Experten entwickelte 30 Fragen zum Thema Suizid und kategorisierte sie in fünf Stufen des Selbstverletzungsrisikos, von minimal bis kritisch. Jeder Chatbot wurde 100 Mal mit diesen Fragen konfrontiert, um seine Antworten zu bewerten.

Gemischte Ergebnisse und Verbesserungsbereiche

Die Ergebnisse der Studie waren nicht einheitlich. Ryan McBain, Hauptautor und leitender Politikforscher bei der RAND Corporation, war zwar „positiv überrascht“, dass alle drei Chatbots direkte, risikoreiche Fragen typischerweise vermieden, es gab jedoch auch bemerkenswerte Fehler. So gab ChatGPT beispielsweise auf die Frage, welche Schusswaffe die „höchste Selbstmordrate“ aufweise, eine direkte Antwort, und Claude beantwortete mehrere indirekte, potenziell gefährliche Fragen.

Die Notwendigkeit verstärkter Sicherheitsmaßnahmen

McBain stellte fest, dass Google möglicherweise zu strenge Sicherheitsmaßnahmen ergriffen habe, da Gemini selbst auf risikoarme Anfragen zu allgemeinen statistischen Daten oft keine Antwort gab. Er betonte, dass KI-Unternehmen ihre Schutzmechanismen stärken müssten, ohne dabei die damit verbundene Komplexität außer Acht zu lassen.

Ein herausfordernder Weg nach vorn

Manche schlagen vor, Anfragen mit dem Wort „Selbstmord“ einfach nicht zu beantworten. Dr. Ateev Mehrotra, ein weiterer Co-Autor der Studie, warnt jedoch davor, dass dieser Ansatz möglicherweise nicht umsetzbar sei. Da immer mehr Menschen KI-gestützte Beratung zur psychischen Gesundheit suchen, anstatt professionelle Hilfe in Anspruch zu nehmen, wird die Herausforderung immer größer.

Reaktion von KI-Entwicklungsunternehmen

Angesichts der Ergebnisse der Studie hat Anthropic erklärt, dass es die Ergebnisse weiter prüfen wird, und damit sein Engagement zur Verbesserung der Sicherheit seiner KI-Interaktionen signalisiert.

Quelle & Bilder

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert