
Der rasante Einsatz künstlicher Intelligenz ist ungebrochen. Führende Technologieunternehmen integrieren KI kontinuierlich in ihre Produkte und machen sie so zu einem festen Bestandteil unseres Alltags. Insbesondere Chatbots erfreuen sich bei Nutzern aller Altersgruppen enormer Beliebtheit. Die intensive Interaktion mit diesen virtuellen Assistenten kann jedoch mitunter schwerwiegende Folgen haben. Diese traurige Realität zeigt sich im Fall von Alphabet, dem Mutterkonzern von Google, und Character. AI, gegen den eine trauernde Mutter Klage eingereicht hat. Sie behauptet, der Einfluss des Chatbots habe zum tragischen Tod ihres 14-jährigen Sohnes beigetragen. Kürzlich ordnete ein US-Gericht an, dass beide Unternehmen die Vorwürfe vor Gericht zur Sprache bringen müssen.
Rechtliche Auswirkungen für Google und Character. AI nach dem tragischen Tod eines Teenagers
Megan Garcia leitete 2024 nach dem Selbstmord ihres Sohnes Sewell Setzer III.ein Gerichtsverfahren gegen Google und Character. AI ein. In der Klage wird behauptet, er habe vor seinem Tod emotional intensive und potenziell schädliche Interaktionen mit dem Chatbot gehabt. Beide Unternehmen beantragten zunächst die Abweisung der Klage unter Berufung auf den verfassungsmäßigen Schutz der Meinungsfreiheit. US-Bezirksrichterin Anne Conway entschied jedoch, dass die Klage zugelassen werden sollte, da die Unternehmen nicht ausreichend nachgewiesen hätten, dass die Chatbot-Interaktionen unter den Schutz des Ersten Verfassungszusatzes fielen.
Der Richter wies insbesondere das Argument zurück, der Chatbot-Dialog sei geschützte Meinungsäußerung, was auf Skepsis gegenüber Googles Versuchen hindeutet, sich aus der Klage zu befreien. Richter Conway wies darauf hin, dass Google eine gewisse Verantwortung dafür trage, die Umstände zu ermöglichen, die das Verhalten von Character. AI ermöglichten. Der Anwalt des Klägers bemerkte, diese Entscheidung sei ein entscheidender Schritt, um Technologieunternehmen für die potenziellen Gefahren ihrer KI-Plattformen zur Verantwortung zu ziehen.
Laut einem Reuters- Bericht wollen die Vertreter von Character. AI die Klage energisch anfechten und die integrierten Sicherheitsfunktionen der Plattform verteidigen, die Minderjährige vor schädlichen Interaktionen und Diskussionen über Selbstverletzungen schützen sollen. Jose Castenda, ein Sprecher von Google, äußerte sich hingegen entschieden gegen die Anweisung des Gerichts und betonte, dass die beiden Unternehmen unabhängig voneinander operieren und Google keinen Einfluss auf die Entwicklung oder Verwaltung der Anwendung von Character. AI habe. Garcia betont, dass Google bei der Entwicklung der Technologie eine entscheidende Rolle gespielt habe.
Die Klage behauptet, der Chatbot Character. AI habe verschiedene Gesprächsrollen übernommen und Sewell Setzer dadurch ein Gefühl der Kameradschaft vermittelt, das schließlich zu Abhängigkeit führte. Die Kommunikation unmittelbar vor dem Vorfall wirkte beunruhigend und deutete darauf hin, dass er möglicherweise seine letzten Augenblicke signalisierte. Dieser Fall stellt einen bedeutenden Präzedenzfall dar, da es sich möglicherweise um den ersten Fall handelt, in dem ein KI-Unternehmen wegen unzureichenden Schutzes Minderjähriger vor psychischen Schäden verklagt wird.
Schreibe einen Kommentar