蘋果因忽視 iCloud 中兒童性虐待材料而面臨訴訟
最近針對蘋果公司發起了一項法律訴訟,指控這家科技巨頭允許其 iCloud 儲存服務被用於保留兒童性虐待材料 (CSAM)。該訴訟代表了數千名虐待受害者,指控蘋果未能採取適當措施保護這些人,加劇了他們的痛苦。
訴訟背後的故事
該案件以一名 27 歲女性的經歷為中心,她從小就遭受虐待。她報告說,一名家庭成員對她進行了性侵犯,並記錄了這些事件,隨後在網路上傳播了這些圖像。令人不安的是,她不斷收到執法部門關於各種裝置上存在這些影像的警報,其中包括與蘋果 iCloud 服務相關的裝置。
Apple CSAM 偵測工作的背景
指控的核心是蘋果之前在其 iCloud 平台上偵測 CSAM 的舉措。 2021 年 8 月,Apple 推出了一項名為「CSAM 偵測」的功能,旨在利用名為 NeuralHash 的先進技術來發現和管理已知的 CSAM。然而,由於活動團體和安全專家擔心此類技術可能被濫用,因此蘋果選擇完全撤回這項措施。
兒童安全疏忽索賠
該訴訟認為,蘋果公司退出 CSAM 檢測表明蘋果公司對兒童安全有意識的疏忽。它指出,
「蘋果沒有使用它創建的工具來識別、刪除和報告她的虐待圖像,而是允許這些材料擴散,迫使兒童性虐待的受害者重溫塑造他們生活的創傷。”
訴訟尋求什麼
這項法律行動不僅旨在追究 Apple 的責任,而且還要求實施全面的策略,以幫助防止 CSAM 在其平台上的儲存和傳播。此外,它還為可能有資格參與此案的多達 2,680 名受害者尋求賠償。
蘋果的回應和更廣泛的影響
雖然蘋果尚未對這些指控做出公開答复,但發言人強調該公司致力於打擊兒童性虐待,同時平衡用戶安全和隱私。發言人表示:“兒童性虐待內容令人憎惡,我們致力於打擊掠奪者將兒童置於危險之中的方式。”
對蘋果聲譽的影響
蘋果一貫主張致力於保護隱私和安全,但這場訴訟對這種說法提出了重大挑戰。這場法律戰的結果可能會對蘋果的公眾形象產生深遠的影響,並影響其未來的舉措和政策。
可以透過信譽良好的新聞媒體找到資訊資源和持續更新。如欲了解更多詳情,請瀏覽《紐約時報》。
發佈留言