
Da sich ChatGPT kontinuierlich zu einem unverzichtbaren Tool weiterentwickelt, verlassen sich immer mehr Menschen nicht nur bei Routineaufgaben, sondern auch bei persönlichen und sensiblen Angelegenheiten darauf. Es gibt Fälle, in denen diese Abhängigkeit schwerwiegende Folgen hatte, wie etwa die Auflösung von Ehen aufgrund unbeabsichtigter Untreue-Enthüllungen durch die Erkenntnisse der KI. Beunruhigenderweise suchten einige Personen sogar therapeutische Unterstützung beim Chatbot – wovor Sam Altman ausdrücklich gewarnt hat. Kürzlich hat ein beunruhigender Vorfall die Risiken der Nutzung von KI zur Gesundheitsberatung ans Licht gebracht. Ein 60-jähriger Mann aus New York entwickelte Berichten zufolge eine seltene und gefährliche Krankheit, weil er sich an die Ernährungsempfehlungen von ChatGPT hielt.
Die versteckten Gefahren von KI-Gesundheitstipps: Bromismus und der Salzersatz, der zu weit ging
In laufenden Diskussionen wird vor einer übermäßigen Abhängigkeit von KI-Systemen gewarnt. So erschien kürzlich in einer US-amerikanischen medizinischen Fachzeitschrift eine Warnung, die ausdrücklich davor warnt, medizinischen Rat bei ChatGPT einzuholen. Diese Warnung erfolgte im Anschluss an einen schweren gesundheitlichen Vorfall, bei dem ein Mann erkrankte, nachdem er den Ernährungsvorschlägen des Chatbots gefolgt war, wie NBC News berichtete. Eine ausführliche Fallstudie, die in den Annals of Internal Medicine veröffentlicht wurde, beschreibt, wie dieser Mann Bromismus entwickelte, eine Form der Bromidvergiftung, nachdem er den Ratschlägen der KI gefolgt war.
Der Mann traf die falsche Entscheidung, gewöhnliches Speisesalz (Natriumchlorid) durch Natriumbromid zu ersetzen, eine Chemikalie, die er online entdeckt hatte. Nachdem er ChatGPT nach einer Salzalternative gefragt hatte, kam er zu dem Schluss, Natriumbromid sei die gesündere Wahl. Drei Monate lang konsumierte er täglich diese giftige Substanz, was schließlich zu schweren gesundheitlichen Komplikationen wie Paranoia, Schlaflosigkeit und Psychosen führte. Er glaubte sogar einmal, ein Nachbar wolle ihn vergiften.
Nach der Einlieferung ins Krankenhaus diagnostizierten die Ärzte Bromismus, eine Erkrankung, die durch übermäßigen Bromidkonsum verursacht wird. Glücklicherweise besserte sich der Zustand des Patienten nach Beendigung des Bromidkonsums und entsprechender Behandlung. Obwohl Fälle von Bromismus aufgrund der seltenen Verwendung von Bromidsalzen heutzutage selten sind, verdeutlicht dieser Vorfall die potenziellen Gefahren des Online-Bezugs von Substanzen ohne ausreichende Regulierung.
Die Erfahrung dieses Mannes ist eine wichtige Erinnerung daran, wie wichtig Vorsicht beim Einsatz von KI für gesundheitsbezogene Anfragen ist. Forscher untersuchten, ob ChatGPT Bromid korrekt als Salzersatz identifizierte, und bestätigten, dass dies geschah, ohne vor der potenziellen Toxizität von Bromid zu warnen. Diese mangelnde Vorsicht ist besonders beunruhigend, da KI die Expertise und Verantwortlichkeit menschlicher medizinischer Fachkräfte nicht nachbilden kann.
Angesichts dieser Vorkommnisse ist es offensichtlich, dass KI-Modelle mit robusteren Sicherheitsmaßnahmen ausgestattet werden müssen, insbesondere in Bezug auf sensible Gesundheitsfragen. In unserer heutigen Zeit, die von einer Fülle von KI-Tools geprägt ist, ist es wichtig, Neugier und Vorsicht in Einklang zu bringen und sich auf KI zu verlassen, ohne professionellen medizinischen Rat zu ersetzen.
Schreibe einen Kommentar