Un tribunale statunitense ordina a Google e Character.AI di rispondere alla causa intentata da una madre in merito al coinvolgimento del chatbot nella tragica morte del figlio.

Un tribunale statunitense ordina a Google e Character.AI di rispondere alla causa intentata da una madre in merito al coinvolgimento del chatbot nella tragica morte del figlio.

L’impennata nell’adozione dell’intelligenza artificiale non accenna a rallentare, poiché importanti aziende tecnologiche continuano a integrare l’IA nei loro prodotti, rendendola sempre più parte integrante della vita quotidiana. I chatbot, in particolare, hanno guadagnato un’enorme popolarità tra gli utenti di diverse fasce d’età. Tuttavia, un’interazione prolungata con questi assistenti virtuali può talvolta portare a gravi conseguenze. Questa triste realtà si è manifestata nel caso che ha coinvolto Alphabet, la società madre di Google, e Character. AI, oggetto di un’azione legale da parte di una madre in lutto. La madre sostiene che l’influenza del chatbot abbia contribuito alla tragica scomparsa del figlio quattordicenne. Di recente, la Corte Suprema degli Stati Uniti ha ordinato a entrambe le aziende di affrontare le accuse in tribunale.

Implicazioni legali per Google e Character. AI dopo la tragica morte di un adolescente

Megan Garcia ha avviato un’azione legale nel 2024 contro Google e Character. AI in seguito al suicidio di suo figlio, Sewell Setzer III. La causa sostiene che l’uomo abbia avuto interazioni emotivamente intense e potenzialmente dannose con il chatbot prima della sua morte. Inizialmente, entrambe le aziende hanno chiesto l’archiviazione del caso, invocando le tutele costituzionali relative alla libertà di parola. Tuttavia, il giudice distrettuale statunitense Anne Conway ha stabilito che la causa poteva essere portata avanti, ritenendo che le aziende non avessero dimostrato in modo sufficientemente efficace che le interazioni con il chatbot rientrassero nelle tutele del Primo Emendamento.

In particolare, il giudice ha respinto l’argomentazione secondo cui il dialogo del chatbot fosse un diritto di parola protetto, a dimostrazione del suo scetticismo nei confronti dei tentativi di Google di sottrarsi alla causa. Il giudice Conway ha suggerito che Google condivida una certa responsabilità per aver facilitato le circostanze che hanno permesso il comportamento di Character. AI. L’avvocato che rappresenta l’attore ha osservato che questa decisione rappresenta un passo fondamentale verso la responsabilizzazione delle aziende tecnologiche per i potenziali pericoli rappresentati dalle loro piattaforme di intelligenza artificiale.

Secondo quanto riportato da Reuters, i rappresentanti di Character. AI intendono contestare con forza la causa, difendendo le funzionalità di sicurezza integrate nella piattaforma, progettate per proteggere i minori da interazioni e discussioni dannose relative all’autolesionismo. D’altra parte, Jose Castenda, portavoce di Google, ha espresso forte opposizione alla direttiva del tribunale, affermando che le due società operano in modo indipendente e che Google non ha alcuna influenza sullo sviluppo o sulla gestione dell’applicazione di Character. AI. Garcia sostiene che Google abbia svolto un ruolo cruciale nella creazione della tecnologia.

La causa sostiene che il chatbot Character. AI abbia assunto diversi ruoli conversazionali, fornendo a Sewell Setzer un senso di compagnia che alla fine lo ha portato a sviluppare dipendenza. Le comunicazioni appena prima dell’incidente sono apparse allarmanti, indicando che l’uomo potrebbe aver annunciato i suoi ultimi momenti. Questo caso rappresenta un precedente significativo, in quanto potrebbe essere il primo caso in cui un’azienda di intelligenza artificiale viene citata in giudizio per non aver fornito un’adeguata protezione da danni psicologici a un minore.

Fonte e immagini

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *