Die Suchmaschinen Bing, Google und DuckDuckGo stehen unter Beschuss, weil sie nicht einvernehmliche KI-Deepfake-Pornografie ganz oben in bestimmten Suchergebnissen platzieren. Dies geschah, nachdem ein Artikel von NBC News veröffentlicht wurde, in dem einige Bedenken im Zusammenhang mit der Zugänglichkeit von KI-gesteuerter Pornografie hervorgehoben wurden.
Explizite Deepfake-Videos werden erstellt, indem originales pornografisches Material verwendet wird und das Gesicht des Schauspielers oder (meistens) der Schauspielerin gegen eine bestimmte reale Person ausgetauscht wird – beispielsweise eine Berühmtheit. Der Wechsel erfolgt automatisch durch die künstliche Intelligenz. Der Benutzer, der die gefälschten Bilder erstellt, muss die KI lediglich mit Fotos des Opfers füttern.
Laut von NBC News durchgeführten Tests an einer Stichprobe von 36 Prominenten – unter Verwendung der Kombination aus einem Namen und dem Wort „Deepfakes“ – zeigten Bing und Google in fast allen Fällen nicht einvernehmliche Deepfake-Videos und -Bilder ganz oben in den Suchergebnissen an.
Google hat 34 dieser Top-Ergebnisse zurückgegeben, während Bing 35 zurückgegeben hat. NBC News erwähnte zwar, dass DuckDuckGo ähnliche Probleme hat, gab jedoch keine Angaben zum Ausmaß des Problems.
NBC News beschwert sich außerdem darüber, dass relevante Artikel zum Thema nicht einvernehmliche Deepfake-Pornografie erst nach dem unangemessenen Inhalt oben angezeigt werden, wenn nach dem Begriff „gefälschte Aktfotos“ gesucht wird.
Erwähnenswert ist, dass NBC News zugegeben hat, zunächst die Sicherheitsfunktionen von Bing und Google deaktiviert zu haben, die den Benutzer vor der Anzeige expliziter Inhalte schützen. Bei beiden Browsern ist die grundlegende Schutzstufe standardmäßig aktiviert, während eine höhere Schutzstufe manuell aktiviert werden kann.
Es enthält jedoch tatsächlich Links zu Websites mit unangemessenen Inhalten oder Tools zur Erstellung von KI-Deepfakes.
In der Standardeinstellung zeigt Google zwar anstößige Bilder an, die Bilder werden jedoch unscharf und erst dann vollständig angezeigt, wenn der Nutzer auf die Anstößigkeit des Bildes hingewiesen wird. Der Benutzer muss bereitwillig die Taste drücken, um das Originalbild zu sehen.
Gleichzeitig kann man mit Recht sagen, dass die einfache Zugänglichkeit von KI-gesteuerter Pornografie ein relevantes Problem darstellt und dass jeder, der nach dieser Art von Inhalten sucht, wahrscheinlich die integrierten Schutzfunktionen deaktivieren wird. Der nicht einvernehmliche explizite Deepfake-Inhalt ist von Natur aus illegal und gehört daher zu den Inhaltstypen, mit denen sich Microsoft, Google und andere befassen sollten.
Der einfachste Weg oder ein erster, möglicherweise vorübergehender Schritt vor der Einführung fortschrittlicherer technischer Maßnahmen könnte darin bestehen, Websites, die für die Veröffentlichung dieser Art von Inhalten bekannt sind, aus den Suchergebnissen zu streichen oder sie ganz zu verbannen.
Dies könnte den derzeit schädlichen Charakter von Suchergebnissen erheblich verringern, da NBC News berichtet, dass mehr als die Hälfte der Top-Ergebnisse in ihren Tests Links zu einer beliebten Deepfake-Website oder einem Konkurrenten waren.
Microsoft war das einzige Unternehmen, das nicht auf die Bitte von NBC News um einen Kommentar reagierte. Ein DuckDuckGo-Sprecher sagte, die Hauptquelle für Weblinks und Bildergebnisse sei Bing. Außerdem bietet DuckDuckGo die Möglichkeit, eine datenschutzbezogene Anfrage zu senden, beispielsweise die Bitte, bestimmte Inhalte aus einer Suche zu löschen.
Google bietet eine ähnliche Option für Deepfake-Opfer an, doch NBC News argumentiert – unter Berufung auf Experten und Aktivisten –, dass dies nicht ausreiche. Darüber hinaus kann es den Opfern weiteren Schaden zufügen, da sie aufgefordert werden, bestimmte URLs mit sensiblen Inhalten zur Überprüfung zu senden.
Andererseits hat Google zumindest einige technologische Maßnahmen ergriffen. Für NBC News wurde behauptet, dass automatisch nach doppelten Inhalten gesucht wird, um erneut hochgeladene Bilder zu entfernen, die bereits gemeldet wurden.
Dies ist nur eines von vielen negativen Beispielen dafür, dass KI für unethische oder böswillige Zwecke eingesetzt wird. Gerade Deepfakes sind auch in vielen anderen Bereichen ein Thema – etwa in der Politik. Microsoft ist eines der Unternehmen, die versuchen, eine Technologie zur Deepfake-Erkennung zu entwickeln, um den Missbrauch der Technologie im Vorfeld der Wahlen zu verhindern.
Darüber hinaus sucht die FTC nach nützlichen Ideen, um gefälschte Audioaufnahmen zu erkennen, die durch künstliche Intelligenz erstellt wurden. Heute ist der Einsendeschluss für die Voice Cloning Challenge mit einem Hauptpreis von 25.000 US-Dollar für den Gesamtsieger.
Schreibe einen Kommentar