
El auge en la adopción de la inteligencia artificial no muestra signos de desaceleración, ya que importantes empresas tecnológicas continúan integrando la IA en sus productos, convirtiéndola cada vez más en un elemento habitual de la vida cotidiana. Los chatbots, en particular, han ganado una enorme popularidad entre usuarios de diferentes edades. Sin embargo, la interacción prolongada con estos asistentes virtuales puede, en ocasiones, tener graves consecuencias. Esta lamentable realidad se ha puesto de manifiesto en el caso que involucra a Alphabet, la empresa matriz de Google, y Character. AI, objeto de una acción legal por parte de una madre afligida. Ella sostiene que la influencia del chatbot contribuyó a la trágica muerte de su hijo de 14 años. Recientemente, el Tribunal de Estados Unidos ha ordenado que ambas empresas aborden las acusaciones en los tribunales.
Implicaciones legales para Google y Character. AI tras la trágica muerte de un adolescente
Megan García inició una demanda en 2024 contra Google y Character. AI tras el suicidio de su hijo, Sewell Setzer III. La demanda alega que este mantuvo interacciones emocionalmente intensas y potencialmente dañinas con el chatbot antes de su muerte. Inicialmente, ambas empresas solicitaron la desestimación del caso, alegando garantías constitucionales relacionadas con la libertad de expresión. Sin embargo, la jueza federal de distrito Anne Conway ha dictaminado que la demanda debe proseguir, al considerar que las empresas no demostraron suficientemente que las interacciones con el chatbot estuvieran amparadas por la Primera Enmienda.
El juez desestimó notablemente el argumento de que el diálogo del chatbot constituía una expresión protegida, lo que indica escepticismo ante los intentos de Google de desvincularse de la demanda. El juez Conway sugirió que Google comparte cierta responsabilidad por facilitar las circunstancias que permitieron la conducta de Character. AI. El abogado que representa al demandante señaló que esta decisión representa un paso crucial para responsabilizar a las empresas tecnológicas por los posibles peligros que plantean sus plataformas de IA.
Según un informe de Reuters, los representantes de Character. AI pretenden impugnar enérgicamente la demanda, defendiendo las funciones de seguridad integradas en la plataforma, diseñadas para proteger a los menores de interacciones y conversaciones perjudiciales sobre autolesiones. Por otro lado, José Castenda, portavoz de Google, expresó su firme oposición a la directiva del tribunal, afirmando que ambas empresas operan de forma independiente y que Google no tiene influencia alguna en el desarrollo ni la gestión de la aplicación de Character. AI. García sostiene que Google desempeñó un papel crucial en la creación de esta tecnología.
La demanda afirma que el chatbot Character. AI adoptó diversos roles conversacionales, brindando a Sewell Setzer una sensación de compañía que eventualmente lo llevó a la dependencia. Las comunicaciones justo antes del incidente resultaron alarmantes, lo que indica que podría haber estado anunciando sus últimos momentos. Este caso sienta un precedente significativo, ya que podría ser el primer caso en el que una empresa de inteligencia artificial enfrenta acciones legales por no brindar protección adecuada contra daños psicológicos a un menor.
Deja una respuesta