iCloud にホストされている児童性的虐待疑惑の資料をめぐり Apple が訴訟

iCloud にホストされている児童性的虐待疑惑の資料をめぐり Apple が訴訟

Apple、iCloudで児童性的虐待資料を無視したとして訴訟に直面

最近、Apple に対して訴訟が起こされ、このテクノロジー大手が iCloud ストレージ サービスを児童性的虐待資料 (CSAM) の保管に利用することを許可したと訴えられた。何千人もの虐待被害者を代表するこの訴訟は、Apple がこれらの個人を保護するための適切な措置を講じず、それによって彼らの苦しみを悪化させたと非難している。

訴訟の背景

この事件は、幼少期から虐待を受けてきた27歳の女性の体験を中心としている。彼女は、家族が彼女を性的暴行し、その様子を録画し、その後その画像をオンラインで拡散したと訴えた。憂慮すべきことに、彼女は、AppleのiCloudサービスにリンクされたものを含むさまざまなデバイスにこれらの画像が存在するという警告を法執行機関から受け続けている。

Apple の CSAM 検出の取り組みの背景

疑惑の中心にあるのは、Appleが以前、iCloudプラットフォーム上でCSAMを検出しようとしていた取り組みだ。2021年8月、Appleは「CSAM検出」という機能を発表した。これは、NeuralHashと呼ばれる高度な技術を利用して既知のCSAMを検出し、管理することを目的としている。しかし、そのような技術の潜在的な悪用を恐れる活動家グループやセキュリティ専門家からプライバシーに関する懸念が表明されたため、Appleはこの取り組みを完全に撤回することを選択した。

子どもの安全に関する過失の申し立て

訴訟では、AppleがCSAM検出から撤退したことは、子供の安全に対する意識的な怠慢を示していると主張している。

「アップルは、彼女の虐待画像を特定、削除、報告するために開発したツールを使用する代わりに、その素材が蔓延することを許し、児童性的虐待の被害者に、彼らの人生を形作ったトラウマを再び経験することを強いた。」

訴訟の目的

この訴訟は、Apple に責任を負わせるだけでなく、同社のプラットフォーム上での CSAM の保存と拡散を防ぐための包括的な戦略の実施を義務付けることも目的としている。さらに、訴訟に参加する資格がある可能性のある 2,680 人もの被害者に対する補償も求めている。

アップルの対応と広範な影響

Apple 社はこれらの申し立てに対してまだ公式に回答していないが、広報担当者は、ユーザーのセキュリティとプライバシーのバランスを取りながら児童性的虐待と闘うという同社の取り組みを強調した。広報担当者は、「児童性的虐待コンテンツは忌まわしいものであり、当社は捕食者が子供たちを危険にさらす方法と闘うことに全力を尽くしています」と述べた。

Appleの評判への影響

Apple は一貫してプライバシーとセキュリティへの取り組みを主張してきたが、今回の訴訟はその主張に大きな疑問を投げかけるものとなった。この法廷闘争の結果は、Apple の社会的イメージに広範囲にわたる影響を及ぼし、同社の今後の取り組みや方針に影響を及ぼす可能性がある。

信頼できるニュースメディアを通じて、有益なリソースや最新情報を入手できます。詳細については、The New York Times をご覧ください。

出典と画像

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です