Apple affronta una causa legale per le accuse di aver ignorato materiale di abusi sessuali su minori su iCloud
Di recente è stata avviata un’azione legale contro Apple, accusando il gigante della tecnologia di aver consentito che il suo servizio di archiviazione iCloud venisse utilizzato per conservare materiale pedopornografico (CSAM). La causa, che rappresenta migliaia di vittime di abusi, accusa Apple di non aver preso misure adeguate per proteggere questi individui, aggravando così le loro sofferenze.
La storia dietro la causa
Il caso è incentrato sull’esperienza di una donna di 27 anni che ha subito abusi fin dall’infanzia. Ha riferito che un membro della famiglia l’ha aggredita sessualmente, ha registrato gli incidenti e successivamente ha diffuso le immagini online. In modo inquietante, continua a ricevere avvisi dalle forze dell’ordine in merito alla presenza di queste immagini su vari dispositivi, tra cui uno collegato al servizio iCloud di Apple.
Informazioni di base sugli sforzi di rilevamento CSAM di Apple
Al centro delle accuse c’è la precedente iniziativa di Apple per rilevare CSAM sulla sua piattaforma iCloud. Ad agosto 2021, Apple ha presentato una funzionalità denominata “CSAM Detection”, volta a utilizzare la tecnologia avanzata chiamata NeuralHash per individuare e gestire CSAM noti. Tuttavia, tra le preoccupazioni sulla privacy espresse da gruppi di attivisti ed esperti di sicurezza, che temevano un potenziale uso improprio di tale tecnologia, Apple ha scelto di ritirare completamente questa iniziativa.
Reclami per negligenza nella sicurezza dei bambini
La causa sostiene che il ritiro di Apple dal rilevamento CSAM dimostra una negligenza consapevole riguardo alla sicurezza dei bambini. Afferma,
“Invece di utilizzare gli strumenti che aveva creato per identificare, rimuovere e segnalare le immagini dei suoi abusi, Apple ha permesso che quel materiale proliferasse, costringendo le vittime di abusi sessuali su minori a rivivere il trauma che ha plasmato le loro vite”.
Cosa cerca la causa
Questa azione legale mira non solo a ritenere Apple responsabile, ma anche a imporre l’implementazione di strategie complete che aiuterebbero a prevenire l’archiviazione e la diffusione di CSAM sulla sua piattaforma. Inoltre, cerca un risarcimento per quelle che potrebbero essere fino a 2.680 vittime che potrebbero essere idonee a partecipare al caso.
La risposta di Apple e le implicazioni più ampie
Sebbene Apple non abbia ancora fornito una risposta pubblica a queste accuse, un portavoce ha sottolineato l’impegno dell’azienda nel combattere gli abusi sessuali sui minori, bilanciando al contempo la sicurezza e la privacy degli utenti. Il portavoce ha affermato: “Il materiale di abuso sessuale sui minori è abominevole e ci impegniamo a combattere i modi in cui i predatori mettono a rischio i bambini”.
L’impatto sulla reputazione di Apple
Apple ha costantemente sostenuto la sua dedizione alla privacy e alla sicurezza, ma questa causa legale rappresenta una sfida significativa a tale narrazione. L’esito di questa battaglia legale potrebbe avere conseguenze di vasta portata per l’immagine pubblica di Apple e influenzare le sue future iniziative e politiche.
Risorse informative e aggiornamenti continui possono essere trovati tramite fonti di informazione affidabili. Per maggiori dettagli, visita The New York Times .
Lascia un commento