Sąd USA nakazuje Google i Character.AI odpowiedzieć na pozew matki dotyczący udziału chatbota w tragicznej śmierci jej syna

Sąd USA nakazuje Google i Character.AI odpowiedzieć na pozew matki dotyczący udziału chatbota w tragicznej śmierci jej syna

Gwałtowny wzrost adopcji sztucznej inteligencji nie wykazuje oznak spowolnienia, ponieważ wybitne firmy technologiczne nadal integrują AI ze swoimi produktami, czyniąc ją coraz bardziej stałym elementem codziennego życia. Chatboty, w szczególności, zyskały ogromną popularność wśród użytkowników w różnych grupach wiekowych. Jednak intensywna interakcja z tymi wirtualnymi asystentami może czasami prowadzić do poważnych konsekwencji. Ta niefortunna rzeczywistość rozegrała się w sprawie dotyczącej Alphabet, spółki macierzystej Google, i Character. AI, będącej przedmiotem pozwu złożonego przez pogrążoną w żałobie matkę. Twierdzi ona, że ​​wpływ chatbota przyczynił się do tragicznej śmierci jej 14-letniego syna. Niedawno sąd USA nakazał obu firmom zajęcie się zarzutami w sądzie.

Konsekwencje prawne dla Google i Character. AI po tragicznej śmierci nastolatka

Megan Garcia wszczęła postępowanie prawne w 2024 r.przeciwko Google i Character. AI po samobójstwie jej syna, Sewella Setzera III. Pozew zarzuca mu, że przed śmiercią angażował się w rozległe i potencjalnie szkodliwe interakcje z chatbotem. Początkowo obie firmy starały się o oddalenie sprawy, powołując się na ochronę konstytucyjną związaną z wolnością słowa. Jednak sędzia okręgowa USA Anne Conway orzekła, że ​​pozew powinien zostać rozpatrzony, stwierdzając, że firmy nie wykazały wystarczająco, że interakcje z chatbotem podlegają ochronie Pierwszej Poprawki.

Sędzia odrzucił argument, że dialog chatbota był chronioną mową, wskazując na sceptycyzm wobec prób Google’a, aby wydostać się z pozwu. Sędzia Conway zasugerował, że Google ponosi pewną odpowiedzialność za ułatwienie okoliczności, które umożliwiły zachowanie Character. AI. Adwokat reprezentujący powoda zauważył, że decyzja ta stanowi kluczowy ruch w kierunku pociągnięcia firm technologicznych do odpowiedzialności za potencjalne zagrożenia stwarzane przez ich platformy AI.

Według raportu Reutersa, przedstawiciele Character. AI zamierzają energicznie sprzeciwić się pozwowi, broniąc wbudowanych funkcji bezpieczeństwa platformy, które mają chronić nieletnich przed szkodliwymi interakcjami i dyskusjami dotyczącymi samookaleczenia. Z drugiej strony, Jose Castenda, rzecznik Google, wyraził silny sprzeciw wobec dyrektywy sądu, twierdząc, że obie firmy działają niezależnie i że Google nie ma żadnego wpływu na rozwój ani zarządzanie aplikacją Character. AI. Garcia utrzymuje, że Google odegrało kluczową rolę w tworzeniu technologii.

Pozew utrzymuje, że chatbot Character. AI przyjął różne role konwersacyjne, zapewniając Sewellowi Setzerowi poczucie towarzystwa, które ostatecznie doprowadziło do uzależnienia. Komunikacja tuż przed incydentem wydawała się alarmująca, wskazując, że mógł sygnalizować swoje ostatnie chwile. Ta sprawa stanowi znaczący precedens, ponieważ może być pierwszym przypadkiem, w którym firma AI stanęła przed sądem za niezapewnienie odpowiedniej ochrony przed krzywdą psychologiczną nieletniego.

Źródło i obrazy

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *