Apple, iCloud에서 아동 성적 학대 자료 무시 혐의로 소송 직면
최근 Apple을 상대로 법적 조치가 시작되어, 이 기술 거대 기업이 iCloud 스토리지 서비스를 사용하여 아동 성적 학대 자료(CSAM)를 보관하도록 허용했다는 혐의를 제기했습니다. 수천 명의 학대 피해자를 대신하여 제기된 이 소송은 Apple이 이러한 개인을 보호하기 위한 적절한 조치를 취하지 않아 그들의 고통을 악화시켰다고 비난합니다.
소송의 배경 스토리
이 사건은 유아기부터 학대를 받은 27세 여성의 경험에 초점을 맞추고 있습니다. 그녀는 가족 구성원이 자신을 성적으로 폭행하고, 사건을 녹화한 후 온라인에 이미지를 유포했다고 보고했습니다. 놀랍게도 그녀는 다양한 기기에 이러한 이미지가 있다는 법 집행 기관의 경고를 계속 받고 있으며, 여기에는 Apple의 iCloud 서비스에 연결된 기기도 포함됩니다.
Apple의 CSAM 감지 노력에 대한 배경
이러한 주장의 핵심은 Apple이 iCloud 플랫폼에서 CSAM을 감지하려는 이전 이니셔티브입니다. 2021년 8월, Apple은 NeuralHash라는 첨단 기술을 활용하여 알려진 CSAM을 발견하고 관리하는 것을 목표로 하는 “CSAM 감지”라는 기능을 공개했습니다. 그러나 이러한 기술의 잠재적 오용을 우려하는 활동가 그룹과 보안 전문가들의 개인 정보 보호 우려 속에서 Apple은 이 이니셔티브를 완전히 철회하기로 결정했습니다.
아동 안전에 대한 과실 청구
소송은 Apple이 CSAM 감지에서 철수한 것이 어린이의 안전에 대한 고의적인 과실을 보여준다고 주장합니다. 소송은 다음과 같이 말합니다.
“Apple은 학대 이미지를 식별, 삭제, 보고하기 위해 만든 도구를 사용하는 대신, 그 자료가 확산되도록 방치했고, 아동 성적 학대 피해자들은 그들의 삶을 형성한 트라우마를 다시 겪어야 했습니다.”
소송이 추구하는 것
이 법적 조치는 Apple을 책임지우고 플랫폼에서 CSAM을 저장하고 배포하는 것을 방지하는 데 도움이 되는 포괄적인 전략을 구현하도록 명령하는 것을 목표로 합니다. 또한 이 사건에 참여할 자격이 있는 최대 2,680명의 피해자에 대한 보상을 요구합니다.
Apple의 대응과 더 광범위한 의미
Apple은 아직 이러한 주장에 대한 공개 답변을 제공하지 않았지만, 대변인은 사용자 보안과 프라이버시를 균형 있게 유지하면서 아동 성적 학대에 맞서 싸우겠다는 회사의 의지를 강조했습니다. 대변인은 “아동 성적 학대 자료는 혐오스럽고, 우리는 포식자들이 아이들을 위험에 빠뜨리는 방식에 맞서 싸우기 위해 최선을 다하고 있습니다.” 라고 말했습니다.
Apple의 평판에 미치는 영향
Apple은 지속적으로 프라이버시와 보안에 대한 헌신을 옹호해 왔지만, 이 소송은 그 이야기에 상당한 도전을 제시합니다. 이 법적 싸움의 결과는 Apple의 대중 이미지에 광범위한 영향을 미칠 수 있으며, 미래의 이니셔티브와 정책에 영향을 미칠 수 있습니다.
정보 리소스와 진행 중인 업데이트는 평판 좋은 뉴스 매체를 통해 찾을 수 있습니다. 자세한 내용은 The New York Times를 방문하세요 .
답글 남기기