
Odkąd Elon Musk przejął Twittera, obecnie przemianowanego na X, platforma ta często wikła się w kontrowersje, zwłaszcza dotyczące jej zasad moderacji treści. Niedawno pojawił się kolejny pozew, który uwypuklił domniemane zaniedbania platformy w zakresie materiałów przedstawiających wykorzystywanie seksualne dzieci (CSAM).Znaczący wyrok Sądu Apelacyjnego Stanów Zjednoczonych dla Dziewiątego Okręgu ponownie przyniósł kontrolę nad sposobem, w jaki X rozpatrywał wrażliwe sprawy.
X staje przed sądową kontrolą w związku z niewłaściwym traktowaniem CSAM: krytyczny moment dla firm technologicznych
W niedawnym wyroku Sąd Apelacyjny Stanów Zjednoczonych dla Dziewiątego Okręgu orzekł, że pozew o zaniedbanie przeciwko X, wytoczony w 2021 roku, powinien trafić do sądu. Orzeczenie to zmusza firmę do uzasadnienia braku reakcji w sprawie dwojga nieletnich, którzy twierdzili, że platforma nie zareagowała odpowiednio na zgłoszenia o treściach o charakterze pornograficznym rozpowszechnianych przez handlarzy ludźmi.
Pomimo ciągłych powiadomień i działań następczych ze strony skarżących, X rzekomo pozwolił, aby kontrowersyjny film pozostawał w internecie przez kilka dni, zanim skontaktował się z Narodowym Centrum ds. Zaginionych i Wykorzystywanych Dzieci (NCMEC).Orzeczenie sędzi Danielle Forrest nakłada na X obowiązek obrony swoich działań i wyjaśnienia, dlaczego nie wywiązał się ze swoich zobowiązań, co stanowi kluczowy moment dla odpowiedzialności gigantów technologicznych za ochronę narażonych użytkowników. Powodowie zwrócili uwagę na niedociągnięcia w systemie zgłaszania X, krytykując brak protokołów dotyczących eskalacji pilnych, zmieniających życie problemów.
Zgodnie z sekcją 230 Ustawy o ochronie przyzwoitości w komunikacji (Communications Decency Act), platformy są generalnie chronione przed odpowiedzialnością za treści generowane przez użytkowników. Te ramy prawne często dawały gigantom technologicznym możliwość uniknięcia odpowiedzialności. Sąd potwierdził jednak, że chociaż większość zabezpieczeń pozostaje nienaruszona na mocy sekcji 230, X może zostać pociągnięta do odpowiedzialności za swoje wewnętrzne uchybienia i procedury reagowania. Ten rozwój sytuacji jasno pokazuje, że firmy technologiczne nie będą chronione przed kontrolą sądową, zwłaszcza w przypadku powiadomienia o poważnych problemach.
Ciężar dowodu spoczywa teraz na firmie X, która musi wykazać, że działała w tej sprawie odpowiedzialnie i bez zaniedbań. To orzeczenie stawia kluczowe pytania etyczne przed firmami technologicznymi w zakresie ich obowiązku zachowania ostrożności, zwłaszcza w obliczu coraz większej integracji sztucznej inteligencji z platformami mediów społecznościowych. Wraz ze wzrostem uzależnienia użytkowników od tych aplikacji, na X i podobnych firmach ciąży coraz większy moralny i techniczny obowiązek wzmocnienia środków bezpieczeństwa dla ofiar nadużyć. Pojawia się coraz większe oczekiwanie, że organizacje te powinny wykraczać poza minimalne wymogi zgodności i dążyć do wywierania pozytywnego wpływu na społeczeństwo.
Dodaj komentarz