Klage gegen Apple wegen angeblichen Kindesmissbrauchsmaterials auf iCloud

Klage gegen Apple wegen angeblichen Kindesmissbrauchsmaterials auf iCloud

Apple sieht sich mit Klage wegen des Vorwurfs konfrontiert, Material über sexuellen Kindesmissbrauch in iCloud zu ignorieren

Vor Kurzem wurde ein Gerichtsverfahren gegen Apple eingeleitet. Dem Technologieriesen wird vorgeworfen, dass er die Nutzung seines iCloud-Speicherdienstes zur Speicherung von Material über sexuellen Kindesmissbrauch (CSAM) zulässt. In der Klage, die Tausende von Missbrauchsopfern vertritt, wird Apple vorgeworfen, keine angemessenen Maßnahmen zum Schutz dieser Personen ergriffen und so ihr Leid verschlimmert zu haben.

Die Geschichte hinter der Klage

Der Fall dreht sich um die Erfahrungen einer 27-jährigen Frau, die seit ihrer Kindheit Opfer von Missbrauch wurde. Sie berichtete, dass ein Familienmitglied sie sexuell missbraucht, die Vorfälle aufgezeichnet und die Bilder anschließend online verbreitet habe. Beunruhigenderweise erhält sie weiterhin Hinweise von der Polizei über die Präsenz dieser Bilder auf verschiedenen Geräten, darunter einem, das mit Apples iCloud-Dienst verknüpft ist.

Hintergrundinformationen zu Apples Bemühungen zur CSAM-Erkennung

Im Mittelpunkt der Vorwürfe steht Apples frühere Initiative zur Erkennung von CSAM auf seiner iCloud-Plattform. Im August 2021 stellte Apple eine Funktion namens „CSAM Detection“ vor, die darauf abzielte, mithilfe der fortschrittlichen Technologie NeuralHash bekanntes CSAM zu erkennen und zu verwalten. Aufgrund von Datenschutzbedenken von Aktivistengruppen und Sicherheitsexperten, die einen möglichen Missbrauch dieser Technologie befürchteten, entschied sich Apple jedoch, diese Initiative vollständig zurückzuziehen.

Ansprüche wegen Fahrlässigkeit bei der Kindersicherheit

Die Klage geht davon aus, dass Apples Rückzug aus der CSAM-Erkennung eine bewusste Nachlässigkeit in Bezug auf die Sicherheit von Kindern darstellt. Darin heißt es:

„Anstatt die von ihm geschaffenen Tools zu nutzen, um Bilder ihres Missbrauchs zu identifizieren, zu entfernen und zu melden, ließ Apple die Verbreitung dieses Materials zu und zwang Opfer von sexuellem Kindesmissbrauch, das Trauma, das ihr Leben geprägt hat, noch einmal zu durchleben.“

Ziel der Klage

Ziel dieser Klage ist es nicht nur, Apple zur Verantwortung zu ziehen, sondern auch die Umsetzung umfassender Strategien zu fordern, die dazu beitragen sollen, die Speicherung und Verbreitung von CSAM auf der Plattform zu verhindern. Darüber hinaus soll eine Entschädigung für bis zu 2.680 Opfer gefordert werden, die sich der Klage anschließen können.

Apples Reaktion und weitere Auswirkungen

Obwohl Apple noch keine öffentliche Stellungnahme zu diesen Vorwürfen abgegeben hat, betonte ein Sprecher, dass das Unternehmen sich der Bekämpfung des sexuellen Missbrauchs von Kindern unter Berücksichtigung der Sicherheit und Privatsphäre der Nutzer verschrieben habe. Der Sprecher erklärte: „Materialien über sexuellen Kindesmissbrauch sind abscheulich und wir sind entschlossen, die Art und Weise zu bekämpfen, wie Sexualstraftäter Kinder gefährden.“

Die Auswirkungen auf Apples Ruf

Apple hat sich immer für Datenschutz und Sicherheit eingesetzt, aber dieser Rechtsstreit stellt diese Haltung in Frage. Der Ausgang dieses Rechtsstreits könnte weitreichende Folgen für das öffentliche Image von Apple haben und zukünftige Initiativen und Richtlinien des Unternehmens beeinflussen.

Informative Ressourcen und laufende Updates finden Sie bei seriösen Nachrichtenagenturen. Weitere Einzelheiten finden Sie in der New York Times .

Quelle & Bilder

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert