苹果因 iCloud 中忽视儿童性虐待内容而面临诉讼
最近,有人对苹果公司提起了诉讼,指控这家科技巨头允许其 iCloud 存储服务用于保存儿童性虐待材料 (CSAM)。该诉讼代表数千名受虐者,指控苹果公司未能采取足够措施保护这些人,从而加剧了他们的痛苦。
诉讼背后的故事
该案件围绕一名 27 岁女性的经历展开,她从婴儿时期开始遭受虐待。她报告说,一名家庭成员对她实施了性侵犯,并记录了这些事件,随后将照片发布到网上。令人不安的是,她不断收到执法部门的警报,称这些照片出现在各种设备上,其中包括一个与 Apple 的 iCloud 服务相关的设备。
Apple 的 CSAM 检测工作背景
这些指控的核心是苹果之前在其 iCloud 平台上检测 CSAM 的举措。2021 年 8 月,苹果推出了一项名为“CSAM 检测”的功能,旨在利用名为 NeuralHash 的先进技术来发现和管理已知的 CSAM。然而,由于维权团体和安全专家担心这种技术可能被滥用,他们担心隐私问题,苹果选择完全撤回这一举措。
儿童安全疏忽索赔
诉讼称,苹果放弃 CSAM 检测表明其有意忽视儿童安全。诉讼称,
“苹果公司没有利用其开发的工具来识别、删除和报告她遭受虐待的图片,而是允许这些材料大量传播,迫使儿童性虐待的受害者重新经历影响他们生活的创伤。”
诉讼内容
此次诉讼不仅旨在追究苹果的责任,还旨在要求其实施全面的战略,以防止在其平台上存储和传播 CSAM。此外,它还寻求对可能有资格加入此案的多达 2,680 名受害者进行赔偿。
苹果的回应及其更广泛的影响
虽然苹果尚未对这些指控作出公开回应,但一位发言人强调,该公司致力于打击儿童性虐待,同时平衡用户安全和隐私。这位发言人表示:“儿童性虐待材料令人憎恶,我们致力于打击那些让儿童处于危险之中的行为。”
对苹果声誉的影响
苹果一直致力于保护隐私和安全,但这起诉讼对这一说法提出了重大挑战。这场法律战的结果可能会对苹果的公众形象产生深远影响,并影响其未来的举措和政策。
您可以通过知名新闻媒体获取信息资源和持续更新。如需更多详细信息,请访问《纽约时报》。
发表回复