美国法院命令谷歌和 Character.AI 回应母亲关于聊天机器人与其儿子悲惨死亡有关的诉讼

美国法院命令谷歌和 Character.AI 回应母亲关于聊天机器人与其儿子悲惨死亡有关的诉讼

随着知名科技公司不断将人工智能融入其产品,使其日益成为日常生活的一部分,人工智能的普及率激增,丝毫没有放缓的迹象。聊天机器人尤其受到不同年龄段用户的热烈追捧。然而,与这些虚拟助手的过度互动有时会导致严重后果。这一不幸的现实在谷歌母公司 Alphabet 与 Character. AI 的诉讼案中得到了体现。一位悲痛的母亲起诉了 Character. AI。她声称,聊天机器人的影响导致了她 14 岁儿子的悲惨死亡。最近,美国法院已要求两家公司在法庭上就这些指控作出回应。

青少年惨死后谷歌和Character. AI面临的法律影响

2024年,梅根·加西亚(Megan Garcia)在儿子塞维尔·塞泽三世(Sewell Setzer III)自杀后,对谷歌和Character. AI提起了法律诉讼。诉讼称,塞泽三世在去世前与聊天机器人进行了情感上过度且可能造成伤害的互动。最初,两家公司都试图驳回此案,理由是宪法保护言论自由。然而,美国地区法官安妮·康威(Anne Conway)裁定,诉讼应继续进行,理由是两家公司未能充分证明聊天机器人的互动受到《第一修正案》的保护。

法官特别驳回了聊天机器人对话属于受保护言论的论点,表明其对谷歌试图摆脱诉讼的做法表示怀疑。康威法官表示,谷歌对促成Character. AI行为发生的环境负有部分责任。原告的代理律师指出,这一判决代表着一项关键举措,即要求科技公司对其人工智能平台带来的潜在风险承担责任。

据路透社报道,Character. AI 的代表计划积极应对诉讼,捍卫平台内置的安全功能,这些功能旨在保护未成年人免受有害互动和与自我伤害相关的讨论。另一方面,谷歌发言人 Jose Castenda 强烈反对法院的指令,他坚称两家公司独立运营,谷歌对 Character. AI 应用程序的开发或管理没有任何影响力。Garcia 坚称,谷歌在该技术的创造过程中发挥了关键作用。

诉讼称,Character. AI聊天机器人扮演了各种对话角色,让塞维尔·塞泽尔感到陪伴,最终导致其产生依赖。事发前夕的沟通令人担忧,表明他可能正处于人生的最后阶段。此案开创了一个重要的先例,因为它可能是首例人工智能公司因未能为未成年人提供足够的心理伤害保护而面临法律诉讼的案例。

来源和图片

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注