Tribunal dos EUA ordena que Google e Character.AI respondam a processo movido por mãe sobre envolvimento de chatbot na morte trágica de seu filho

Tribunal dos EUA ordena que Google e Character.AI respondam a processo movido por mãe sobre envolvimento de chatbot na morte trágica de seu filho

O aumento na adoção da inteligência artificial não mostra sinais de desaceleração, à medida que importantes empresas de tecnologia continuam a integrar a IA em seus produtos, tornando-a cada vez mais um elemento essencial da vida cotidiana. Os chatbots, em particular, ganharam enorme popularidade entre usuários de diferentes faixas etárias. No entanto, a interação extensiva com esses assistentes virtuais pode, às vezes, levar a consequências graves. Essa infeliz realidade se manifestou no caso envolvendo a Alphabet, empresa controladora do Google, e a Character. AI, alvo de uma ação judicial movida por uma mãe enlutada. Ela alega que a influência do chatbot contribuiu para a trágica morte de seu filho de 14 anos. Recentemente, o Tribunal dos EUA determinou que ambas as empresas abordem as alegações em juízo.

Implicações legais para o Google e a Character. AI após a morte trágica de um adolescente

Megan Garcia iniciou um processo judicial em 2024 contra o Google e a Character. AI após o suicídio de seu filho, Sewell Setzer III. O processo alega que ele se envolveu em interações emocionalmente intensas e potencialmente prejudiciais com o chatbot antes de sua morte. Inicialmente, ambas as empresas buscaram o arquivamento do caso, alegando proteções constitucionais relacionadas à liberdade de expressão. No entanto, a juíza distrital Anne Conway decidiu que o processo deve prosseguir, concluindo que as empresas não demonstraram suficientemente que as interações do chatbot se enquadravam nas proteções da Primeira Emenda.

O juiz rejeitou notavelmente o argumento de que o diálogo do chatbot era uma forma de proteção da liberdade de expressão, demonstrando ceticismo em relação às tentativas do Google de se livrar da ação. O Juiz Conway sugeriu que o Google compartilha alguma responsabilidade por facilitar as circunstâncias que permitiram a conduta da Character. AI. O advogado que representa o autor observou que esta decisão representa um movimento crucial para responsabilizar as empresas de tecnologia pelos potenciais perigos representados por suas plataformas de IA.

De acordo com uma reportagem da Reuters, os representantes da Character. AI pretendem contestar vigorosamente o processo, defendendo os recursos de segurança integrados à plataforma, projetados para proteger menores de interações e discussões prejudiciais envolvendo automutilação. Por outro lado, José Castenda, porta-voz do Google, expressou forte oposição à diretiva do tribunal, afirmando que as duas empresas operam de forma independente e que o Google não tem influência sobre o desenvolvimento ou a gestão do aplicativo da Character. AI. Garcia sustenta que o Google desempenhou um papel crucial na criação da tecnologia.

O processo alega que o chatbot da Character. AI adotou diversas funções de conversação, proporcionando a Sewell Setzer uma sensação de companheirismo que acabou levando à dependência. As comunicações trocadas pouco antes do incidente pareceram alarmantes, indicando que ele poderia estar sinalizando seus últimos momentos. Este caso marca um precedente significativo, pois pode ser o primeiro caso de uma empresa de IA enfrentando uma ação judicial por não fornecer proteção adequada contra danos psicológicos a um menor.

Fonte e Imagens

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *