
イーロン・マスクがTwitter(現在はXにブランド名を変更)を買収して以来、同プラットフォームは、特にコンテンツ・モデレーション・ポリシーをめぐって、度々論争に巻き込まれてきました。最近では、児童性的虐待コンテンツ(CSAM)に関するTwitterの過失をめぐる新たな訴訟が浮上しました。米国第9巡回控訴裁判所の重要な判決により、Xのデリケートな案件への対応が改めて厳しく問われることとなりました。
X社、CSAMの不適切な取り扱いをめぐり法的調査に直面:テクノロジー企業にとって重大な局面
米国第9巡回控訴裁判所は最近の判決で、2021年に遡るX社に対する過失訴訟を裁判所で審理すべきであるとの判断を下した。この判決により、同社は、人身売買業者による露骨なコンテンツの拡散に関する報告に対し、プラットフォームが適切な対応を怠ったと主張する未成年者2名を巻き込んだ訴訟において、不作為を正当化する必要に迫られている。
原告からの執拗な通知とフォローアップにもかかわらず、X社は問題の動画を数日間オンライン上に放置した後、全米行方不明・被搾取児童センター(NCMEC)に通報したとされています。ダニエル・フォレスト判事の判決は、X社に対し、自らの行動を弁明し、義務を果たせなかった理由を説明するよう求めており、脆弱な立場にあるユーザーの保護における大手IT企業の責任追及にとって極めて重要な局面となりました。原告らは、X社の通報システムの欠陥を指摘し、緊急かつ人生を変えるような問題をエスカレーションするための手順が欠如していることを批判しました。
通信品位法第230条の下、プラットフォームはユーザー生成コンテンツに関する責任から一般的に保護されています。この法的枠組みは、テクノロジー大手企業に責任を回避する手段をしばしば与えてきました。しかし、裁判所は、第230条の下では大部分の保護は維持されるものの、Xは社内の不備や対応プロセスについて責任を問われる可能性があることを確認しました。この展開は、特に深刻な問題が指摘された場合、テクノロジー企業が司法の調査から免責されることはないという明確なメッセージを送っています。
X社には、本件において責任ある行動を取り、過失がなかったことを証明する責任があります。この判決は、特に人工知能がソーシャルメディアプラットフォームにますます統合される中で、テクノロジー企業にとっての注意義務に関する重大な倫理的問題を提起しています。これらのアプリケーションへのユーザーの依存が高まるにつれ、X社をはじめとする企業は、搾取被害者に対する安全対策を強化するという、より高度な道徳的・技術的義務を負っています。これらの組織には、最低限のコンプライアンスを超え、社会にプラスの影響を与えるよう努めることが求められています。
コメントを残す