Apple sieht sich mit Gegenreaktionen wegen KI-Benachrichtigungsfehler konfrontiert
Aufgrund eines kürzlichen Fehltritts steht Apple wegen Ungenauigkeiten, die durch seine Apple Intelligence-Funktion verursacht wurden, unter Beobachtung. Dieses KI-gesteuerte Tool wurde mit den neuesten Updates in iOS 18.1, iPadOS 18.1 und macOS Sequoia 15.1 eingeführt und bietet Funktionen wie Benachrichtigungszusammenfassungen, maßgeschneiderte Siri-Abfragen, ein Tool zur Fotoorganisation, E-Mail-Zusammenfassungen und die Möglichkeit, über Genmoji personalisierte Emojis zu erstellen. Eines seiner herausragenden Features ist die erweiterte Bilderkennung auf dem iPhone 16, die die Benutzerinteraktion verbessert.
Vorfallübersicht: Eine beunruhigende Meldung
Die Kontroverse brach aus, als Apple Intelligence eine Benachrichtigungszusammenfassung der BBC News-App bereitstellte, die einen schwerwiegenden Fehler enthielt. Die KI berichtete, dass Luigi Mangione sich selbst erschossen habe, eine Behauptung, die kategorisch falsch war. Die Fehlinterpretation von Schlagzeilen hat Zweifel an der Zuverlässigkeit der KI bei der Übermittlung wichtiger Informationen geweckt.
Kontext des Fehlers
Dieser Vorfall ist vor allem in seinem Kontext beunruhigend. Anfang des Monats wurde Brian Thompson, CEO von UnitedHealthcare, auf tragische Weise getötet und sein mutmaßlicher Angreifer Luigi Mangione festgenommen. Mangiones Beteiligung stand im Mittelpunkt der Berichterstattung, aber das Apple Intelligence-System vermischte die Details fälschlicherweise, was zu einer höchst irreführenden Zusammenfassung führte, die bei den Benutzern Verwirrung und Angst auslösen könnte.
Reaktion und Auswirkungen
Die Folgen dieses Fehlers ließen nicht lange auf sich warten. Die BBC reichte eine Beschwerde bei Apple ein, woraufhin die globale Interessengruppe Reporter ohne Grenzen (RSF) die Deaktivierung der Benachrichtigungsfunktion von Apple Intelligence forderte. RSF hob diesen Vorfall als Paradebeispiel für die Unzulänglichkeiten der KI beim korrekten Umgang mit sensiblen Nachrichteninhalten hervor. Sie erklärten:
Dieser Unfall unterstreicht die Unfähigkeit von KI-Systemen, systematisch qualitativ hochwertige Informationen zu veröffentlichen, selbst wenn diese auf journalistischen Quellen beruhen. Die probabilistische Arbeitsweise von KI-Systemen disqualifiziert sie automatisch als zuverlässige Technologie für Nachrichtenmedien, die in Lösungen eingesetzt werden können, die sich an die breite Öffentlichkeit richten.
Umfassendere KI-Probleme
Dies ist kein Einzelfall im Bereich der künstlichen Intelligenz. Anfang des Jahres wurde Googles Chatbot Gemini kritisiert, weil er umstrittene Bilder erstellte, die historische Figuren unangemessen neu darstellten. Als Reaktion auf diese Probleme setzte Google die Möglichkeit, Bilder von Einzelpersonen in Gemini zu erstellen, vorübergehend aus und räumte ein, dass sie „das Ziel verfehlt“ hätten.
Schreibe einen Kommentar