Desinformationsforscher behauptet, ChatGPT für Zitate zu verwenden, bestreitet jedoch, Kenntnis von KI-„Halluzinationen“ zu haben und fügt falsche Informationen hinzu

Desinformationsforscher behauptet, ChatGPT für Zitate zu verwenden, bestreitet jedoch, Kenntnis von KI-„Halluzinationen“ zu haben und fügt falsche Informationen hinzu

Mit der Weiterentwicklung der künstlichen Intelligenz (KI) unterliegen die Methoden zum Verfassen und Präsentieren schriftlicher Kommunikation einem erheblichen Wandel. Die zunehmende Abhängigkeit von KI bei der Inhaltsentwicklung bringt jedoch neue Herausforderungen mit sich. Ein kürzlicher Vorfall mit einem Desinformationsexperten zeigt die Komplexität, die mit der Verwendung von KI-generiertem Text verbunden ist. Diese Person wurde kritisiert, nachdem sie KI zur Erstellung eines Rechtsdokuments verwendet hatte, das irreführenderweise gefälschte Zitate enthielt. Ironischerweise zielte diese Klage darauf ab, sich gegen die Verwendung von KI-generiertem Material zu wehren, das Wähler vor Wahlen in die Irre führen könnte.

Unvorhergesehene KI-Fallstricke eines Desinformationsexperten

Jeff Hancock, Professor an der Stanford University und anerkannter Experte für Desinformation, reichte eine eidesstattliche Erklärung ein, in der er ein Gesetz in Minnesota unterstützt, das Deep-Fake-Technologien verbieten soll, die Wahlergebnisse verfälschen könnten. Leider enthielt genau die eidesstattliche Erklärung, die den Einfluss der KI auf die Wähler bekämpfen sollte, auch Ungenauigkeiten der KI, was die Zuverlässigkeit seiner Behauptungen untergräbt.

In einer anschließenden Erklärung räumte Hancock ein, ChatGPT-4o zur Organisation von Zitaten zu verwenden. Er behauptete jedoch, nicht gewusst zu haben, dass dieses Tool falsche Informationen oder Referenzen generieren könnte. Hancock betonte, er habe das KI-Tool nicht zum Verfassen des Hauptinhalts des Dokuments verwendet und bezeichnete die Zitatfehler als unbeabsichtigt.

„Ich habe die Erklärung verfasst und inhaltlich geprüft und stehe voll und ganz hinter jeder der darin aufgestellten Behauptungen, die alle durch die neueste wissenschaftliche Forschung auf diesem Gebiet gestützt werden und meine Meinung als Experte hinsichtlich der Auswirkungen der KI-Technologie auf Desinformation und ihre gesellschaftlichen Auswirkungen widerspiegeln.“

Hancock führte weiter aus, dass er sowohl Google Scholar als auch GPT-4o verwendet habe, um die Zitatliste zusammenzustellen, betonte jedoch, dass die KI nicht zur Erstellung der Hauptargumente des Dokuments verwendet wurde. Er gab offen zu, dass er mit dem Konzept der KI-„Halluzinationen“ nicht vertraut sei, was zu den fehlerhaften Zitaten geführt habe. Trotzdem blieb Hancock den in der Erklärung dargelegten inhaltlichen Punkten treu und bestand darauf, dass diese nicht durch KI-bezogene Zitatfehler überschattet werden sollten.

„Ich hatte nicht die Absicht, das Gericht oder den Anwalt in die Irre zu führen. Ich bedauere aufrichtig die dadurch möglicherweise entstandene Verwirrung. Dennoch stehe ich voll und ganz hinter allen wesentlichen Punkten der Erklärung.“

Die Auswirkungen von Hancocks Erfahrung werfen kritische Fragen über den Einsatz von KI-Tools im Rechtsbereich auf. Während seine Erklärung vom Gericht möglicherweise berücksichtigt wird, unterstreicht dieser Vorfall die inhärenten Risiken, die mit der Integration von KI in formelle Rahmenbedingungen verbunden sind.

Quelle & Bilder

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert