Apple fait face à des poursuites judiciaires pour avoir ignoré des contenus d’abus sexuels sur mineurs dans iCloud
Une action en justice a récemment été intentée contre Apple, accusant le géant technologique d’avoir permis que son service de stockage iCloud soit utilisé pour la conservation de matériel pédopornographique. La plainte, qui représente des milliers de victimes d’abus, accuse Apple de ne pas avoir pris les mesures adéquates pour protéger ces personnes, aggravant ainsi leurs souffrances.
L’histoire derrière le procès
L’affaire porte sur l’expérience d’une femme de 27 ans qui a été victime de violences dès son enfance. Elle a déclaré qu’un membre de sa famille l’avait agressée sexuellement, avait enregistré les incidents et avait ensuite diffusé les images en ligne. Fait inquiétant, elle continue de recevoir des alertes des forces de l’ordre concernant la présence de ces images sur divers appareils, dont un lié au service iCloud d’Apple.
Contexte des efforts d’Apple en matière de détection de contenus CSAM
Au cœur des allégations se trouve l’ancienne initiative d’Apple visant à détecter le CSAM sur sa plateforme iCloud. En août 2021, Apple a dévoilé une fonctionnalité appelée « CSAM Detection », visant à utiliser une technologie avancée appelée NeuralHash pour repérer et gérer le CSAM connu. Cependant, face aux préoccupations en matière de confidentialité exprimées par des groupes d’activistes et des experts en sécurité, qui craignaient une éventuelle utilisation abusive de cette technologie, Apple a choisi de retirer complètement cette initiative.
Allégations de négligence en matière de sécurité des enfants
La plainte avance que le retrait d’Apple de la détection CSAM illustre une négligence consciente concernant la sécurité des enfants. Elle stipule :
« Au lieu d’utiliser les outils qu’elle avait créés pour identifier, supprimer et signaler les images d’abus sexuels, Apple a laissé ce matériel proliférer, forçant les victimes d’abus sexuels sur mineurs à revivre le traumatisme qui a façonné leur vie. »
Ce que la poursuite vise
Cette action en justice vise non seulement à tenir Apple responsable, mais aussi à exiger la mise en œuvre de stratégies globales qui contribueraient à empêcher le stockage et la diffusion de matériel pédopornographique sur sa plateforme. En outre, elle vise à obtenir une indemnisation pour ce qui pourrait être jusqu’à 2 680 victimes qui pourraient être éligibles pour se joindre à l’affaire.
La réponse d’Apple et ses implications plus larges
Bien qu’Apple n’ait pas encore répondu publiquement à ces allégations, un porte-parole a souligné l’engagement de l’entreprise à lutter contre les abus sexuels sur mineurs tout en équilibrant la sécurité et la confidentialité des utilisateurs. Le porte-parole a déclaré : « Les contenus pédopornographiques sont odieux et nous sommes déterminés à lutter contre les prédateurs qui mettent les enfants en danger. »
L’impact sur la réputation d’Apple
Apple a toujours défendu son engagement en matière de confidentialité et de sécurité, mais ce procès remet en cause cette position. L’issue de cette bataille juridique pourrait avoir des conséquences profondes sur l’image publique d’Apple et influencer ses initiatives et politiques futures.
Des ressources informatives et des mises à jour régulières sont disponibles auprès de médias réputés. Pour plus de détails, visitez le site The New York Times .
Laisser un commentaire