Apple enfrenta demanda por acusaciones de ignorar material de abuso sexual infantil en iCloud
Recientemente se inició una acción legal contra Apple, acusándola de permitir que su servicio de almacenamiento iCloud se utilizara para la retención de material de abuso sexual infantil (CSAM). La demanda, que representa a miles de víctimas de abuso, acusa a Apple de no tomar las medidas adecuadas para proteger a estas personas, lo que agrava su sufrimiento.
La historia detrás de la demanda
El caso se centra en la experiencia de una mujer de 27 años que sufrió abusos desde la infancia. Denunció que un miembro de su familia la agredió sexualmente, grabó los incidentes y luego difundió las imágenes en Internet. Resulta inquietante que siga recibiendo alertas de las fuerzas del orden sobre la presencia de estas imágenes en varios dispositivos, incluido uno vinculado al servicio iCloud de Apple.
Antecedentes de los esfuerzos de Apple para detectar CSAM
En el centro de las acusaciones se encuentra la iniciativa anterior de Apple para detectar material de abuso sexual infantil en su plataforma iCloud. En agosto de 2021, Apple presentó una función llamada “Detección de material de abuso sexual infantil”, cuyo objetivo era utilizar una tecnología avanzada llamada NeuralHash para detectar y gestionar material de abuso sexual infantil conocido. Sin embargo, en medio de las preocupaciones sobre la privacidad expresadas por grupos activistas y expertos en seguridad, que temían un posible uso indebido de dicha tecnología, Apple optó por retractarse por completo de esta iniciativa.
Reclamaciones por negligencia en la seguridad infantil
La demanda sostiene que la retirada de Apple de la detección de material de abuso sexual infantil ilustra una negligencia consciente en lo que respecta a la seguridad de los niños. Afirma:
“En lugar de utilizar las herramientas que había creado para identificar, eliminar y denunciar imágenes de abusos, Apple permitió que ese material proliferara, obligando a las víctimas de abuso sexual infantil a revivir el trauma que ha marcado sus vidas”.
Lo que busca la demanda
Esta acción legal no solo tiene como objetivo exigir responsabilidades a Apple, sino también exigir la implementación de estrategias integrales que ayuden a prevenir el almacenamiento y la difusión de material de abuso sexual infantil en su plataforma. Además, busca una compensación para las que podrían ser hasta 2.680 víctimas que podrían ser elegibles para unirse al caso.
La respuesta de Apple y sus implicaciones más amplias
Si bien Apple aún no ha dado una respuesta pública a estas acusaciones, un portavoz enfatizó el compromiso de la compañía de combatir el abuso sexual infantil, al tiempo que busca un equilibrio entre la seguridad y la privacidad de los usuarios. El portavoz afirmó: “El material de abuso sexual infantil es aborrecible y estamos comprometidos a luchar contra las formas en que los depredadores ponen en riesgo a los niños”.
El impacto en la reputación de Apple
Apple siempre ha defendido su compromiso con la privacidad y la seguridad, pero esta demanda plantea un desafío importante a esa narrativa. El resultado de esta batalla legal podría tener consecuencias de gran alcance para la imagen pública de Apple e influir en sus futuras iniciativas y políticas.
Se pueden encontrar recursos informativos y actualizaciones constantes en medios de comunicación de confianza. Para obtener más información, visite The New York Times .
Deja una respuesta