Apple stoi w obliczu pozwu z powodu zarzutów ignorowania materiałów przedstawiających molestowanie seksualne dzieci w iCloud
Niedawno wszczęto postępowanie prawne przeciwko Apple, oskarżając giganta technologicznego o umożliwienie wykorzystania jego usługi przechowywania danych w iCloud do przechowywania materiałów przedstawiających seksualne wykorzystywanie dzieci (CSAM). Pozew, reprezentujący tysiące ofiar nadużyć, oskarża Apple o niepodjęcie odpowiednich środków w celu ochrony tych osób, co nasiliło ich cierpienie.
Historia za pozwem
Sprawa koncentruje się na doświadczeniu 27-letniej kobiety, która doświadczyła przemocy od niemowlęctwa. Zgłosiła, że członek rodziny dopuścił się na niej napaści seksualnej, nagrała incydenty, a następnie rozpowszechniła zdjęcia w Internecie. Co niepokojące, nadal otrzymuje alerty od organów ścigania dotyczące obecności tych zdjęć na różnych urządzeniach, w tym jednym połączonym z usługą iCloud firmy Apple.
Informacje ogólne na temat działań Apple w zakresie wykrywania CSAM
Podstawą zarzutów jest poprzednia inicjatywa Apple mająca na celu wykrywanie CSAM na platformie iCloud. W sierpniu 2021 r. Apple zaprezentowało funkcję o nazwie „CSAM Detection”, której celem jest wykorzystanie zaawansowanej technologii o nazwie NeuralHash do wykrywania i zarządzania znanymi CSAM. Jednak pośród obaw o prywatność wyrażanych przez grupy aktywistów i ekspertów ds. bezpieczeństwa, którzy obawiali się potencjalnego niewłaściwego wykorzystania takiej technologii, Apple zdecydowało się całkowicie wycofać tę inicjatywę.
Roszczenia z tytułu zaniedbań w zakresie bezpieczeństwa dzieci
Pozew zakłada, że wycofanie się Apple z wykrywania CSAM ilustruje świadome zaniedbanie w kwestii bezpieczeństwa dzieci. Stwierdza,
„Zamiast wykorzystać stworzone przez siebie narzędzia do identyfikowania, usuwania i zgłaszania obrazów przedstawiających jej nadużycia, Apple pozwoliło na rozprzestrzenianie się tych materiałów, zmuszając ofiary wykorzystywania seksualnego dzieci do ponownego przeżywania traumy, która ukształtowała ich życie”.
Czego domaga się pozew
Ta akcja prawna ma na celu nie tylko pociągnięcie Apple do odpowiedzialności, ale także nakazanie wdrożenia kompleksowych strategii, które pomogłyby zapobiec przechowywaniu i rozpowszechnianiu CSAM na jego platformie. Ponadto domaga się odszkodowania dla co najmniej 2680 ofiar, które mogą kwalifikować się do przyłączenia się do sprawy.
Odpowiedź Apple i szersze implikacje
Chociaż Apple nie udzieliło jeszcze publicznej odpowiedzi na te zarzuty, rzecznik podkreślił zaangażowanie firmy w zwalczanie wykorzystywania seksualnego dzieci przy jednoczesnym zachowaniu równowagi między bezpieczeństwem a prywatnością użytkowników. Rzecznik stwierdził: „Materiały dotyczące wykorzystywania seksualnego dzieci są odrażające i jesteśmy zobowiązani do walki ze sposobami, w jakie drapieżcy narażają dzieci na ryzyko”.
Wpływ na reputację Apple
Apple konsekwentnie opowiada się za swoim zaangażowaniem w prywatność i bezpieczeństwo, ale ten pozew stanowi poważne wyzwanie dla tej narracji. Wynik tej batalii prawnej może mieć daleko idące konsekwencje dla wizerunku publicznego Apple i wpłynąć na jego przyszłe inicjatywy i politykę.
Zasoby informacyjne i bieżące aktualizacje można znaleźć w renomowanych serwisach informacyjnych. Aby uzyskać więcej szczegółów, odwiedź The New York Times .
Dodaj komentarz