
Studie zeigt eingeschränkte menschliche Fähigkeit, KI-generierte Bilder zu unterscheiden
Eine aktuelle Studie von Microsoft AI for Good umfasste über 12.500 Teilnehmer weltweit, die rund 287.000 Bilder auswerteten. Die Ergebnisse zeigten eine besorgniserregende Erfolgsquote von lediglich 62 % bei der Unterscheidung zwischen KI-generierten und realen Bildern. Diese Statistik unterstreicht die Herausforderungen, vor denen Menschen bei der zuverlässigen Identifizierung künstlicher Inhalte stehen, insbesondere angesichts der zunehmenden technologischen Komplexität.
Einblicke in die Bildtyperkennung
Die Teilnehmer zeigten die größte Kompetenz bei der Erkennung KI-generierter Menschenporträts. Ihre Leistung ließ jedoch deutlich nach, als sie zwischen künstlichen und realen Natur- oder Stadtlandschaften unterscheiden mussten. Hier sank die Erfolgsquote auf 59 bis 61 %.Diese Ergebnisse verdeutlichen die Hürden, die es zu überwinden gilt, KI-generierte Bilder ohne offensichtliche Artefakte oder stilistische Inkonsistenzen zu erkennen.
Versuchsaufbau und Methodik
Für diese umfassende Untersuchung entwickelte das Forschungsteam ein Quiz mit dem Titel „Real or Not Quiz“.Dabei wurden den Teilnehmern KI-generierte Bilder präsentiert, die repräsentativ für die wahrscheinlichen Online-Bilder waren. Die Forscher achteten dabei bewusst darauf, keine allzu irreführenden Bilder auszuwählen.
Forderungen nach verbesserten Transparenzmaßnahmen
Angesichts der Ergebnisse plädiert Microsoft für die Einführung von Transparenzmaßnahmen wie Wasserzeichen und fortschrittlichen KI-Erkennungstools. Diese Bemühungen zielen darauf ab, das Risiko von Fehlinformationen durch KI-generierte Bilder zu mindern. Darüber hinaus hat der Technologieriese Initiativen gestartet, um das Bewusstsein für KI-bezogene Fehlinformationen zu schärfen.
KI-Erkennungstools übertreffen das menschliche Urteilsvermögen
Interessanterweise nutzten die Forscher ein eigenes KI-Erkennungstool, das eine beeindruckende Genauigkeit von über 95 % über verschiedene Bildkategorien hinweg erreichte. Dieses Ergebnis zeigt, dass KI die Bilderkennung zwar deutlich verbessern kann, aber nicht fehlerfrei ist.
Die Anfälligkeit von Wasserzeichen
Es muss unbedingt anerkannt werden, dass böswillige Personen diese Kennungen selbst bei sichtbaren Wasserzeichen leicht manipulieren oder beschneiden und so die Verbreitung irreführender Inhalte erleichtern können.
Verständnis der Erkennungsherausforderungen
Die Forscher vermuten, dass Menschen aufgrund ihrer natürlichen Begabung zur Gesichtserkennung und ihrer Fähigkeit, Anomalien zu erkennen, besonders gut darin sind, KI-generierte Gesichter zu erkennen. Interessanterweise produzierten ältere Generative Adversarial Networks (GANs) und Inpainting-Techniken oft Bilder, die Amateurfotografien ähneln. Diese sind für den Einzelnen schwieriger als synthetisch zu identifizieren als die von fortschrittlichen Modellen wie Midjourney und DALL-E 3 erstellten Bilder.
Die Risiken von Inpainting-Techniken
Inpainting – eine Methode, bei der Elemente echter Fotos durch KI-generierte Inhalte ersetzt werden – stellt erhebliche Herausforderungen bei der Fälschungserkennung dar und erhöht das Risiko für Desinformationskampagnen, wie Microsoft anmerkte.
Fazit: Ein Aufruf zur technologischen Wachsamkeit
Diese Studie verdeutlicht deutlich, wie anfällig Menschen für Täuschungen durch künstliche Intelligenz sind. Sie erinnert Technologieunternehmen daran, dass sie ihre Tools und Methoden dringend verbessern müssen, um der böswilligen Verbreitung irreführender Bilder entgegenzuwirken.
Quelle: ArXiv | Bild über Depositphotos.com
Schreibe einen Kommentar