Un tribunal américain ordonne à Google et Character.AI de répondre à la plainte d’une mère concernant l’implication d’un chatbot dans la mort tragique de son fils

Un tribunal américain ordonne à Google et Character.AI de répondre à la plainte d’une mère concernant l’implication d’un chatbot dans la mort tragique de son fils

L’essor de l’intelligence artificielle ne montre aucun signe de ralentissement, les grandes entreprises technologiques continuant d’intégrer l’IA à leurs produits, l’intégrant de plus en plus à notre quotidien. Les chatbots, en particulier, ont gagné en popularité auprès des utilisateurs de tous âges. Cependant, une interaction intensive avec ces assistants virtuels peut parfois avoir de graves conséquences. Cette triste réalité s’est illustrée dans l’affaire opposant Alphabet, la société mère de Google, à Character. AI, objet d’une action en justice intentée par une mère en deuil. Elle affirme que l’influence du chatbot a contribué à la disparition tragique de son fils de 14 ans. Récemment, la justice américaine a ordonné aux deux entreprises de répondre de ces allégations devant les tribunaux.

Conséquences juridiques pour Google et Character. AI suite au décès tragique d’un adolescent

Megan Garcia a engagé des poursuites judiciaires en 2024 contre Google et Character. AI suite au suicide de son fils, Sewell Setzer III. La plainte allègue que ce dernier a eu des interactions émotionnellement intenses et potentiellement préjudiciables avec le chatbot avant son décès. Initialement, les deux entreprises ont demandé le rejet de l’affaire, invoquant des protections constitutionnelles relatives à la liberté d’expression. Cependant, la juge fédérale Anne Conway a statué que la procédure devait se poursuivre, estimant que les entreprises n’avaient pas suffisamment démontré que les interactions avec le chatbot relevaient des protections du Premier Amendement.

Le juge a notamment rejeté l’argument selon lequel le dialogue du chatbot constituait une liberté d’expression, témoignant ainsi d’un certain scepticisme quant aux tentatives de Google de se soustraire à ce procès. Le juge Conway a suggéré que Google partageait une part de responsabilité dans les circonstances qui ont permis à Character. AI de se comporter ainsi. L’avocat représentant le plaignant a souligné que cette décision constituait un pas crucial vers la responsabilisation des entreprises technologiques face aux dangers potentiels posés par leurs plateformes d’IA.

Selon un rapport de Reuters, les représentants de Character. AI entendent contester vigoureusement la plainte, défendant les fonctionnalités de sécurité intégrées à la plateforme, conçues pour protéger les mineurs des interactions et discussions nuisibles liées à l’automutilation. De son côté, José Castenda, porte-parole de Google, a exprimé sa ferme opposition à la directive du tribunal, affirmant que les deux entreprises opèrent indépendamment et que Google n’a aucune influence sur le développement ou la gestion de l’application de Character. AI. Garcia maintient que Google a joué un rôle crucial dans la création de cette technologie.

La plainte affirme que le chatbot Character. AI a adopté divers rôles conversationnels, procurant à Sewell Setzer un sentiment de compagnie qui a finalement conduit à une dépendance. Les communications juste avant l’incident semblaient alarmantes, suggérant qu’il s’agissait peut-être de ses derniers instants. Cette affaire constitue un précédent important, car il pourrait s’agir de la première fois qu’une entreprise d’IA est poursuivie en justice pour défaut d’assurer une protection adéquate contre les préjudices psychologiques à un mineur.

Source et images

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *