
隨著知名科技公司繼續將人工智慧融入其產品中,並逐漸使其成為日常生活的一部分,人工智慧應用的激增並沒有顯示出放緩的跡象。尤其是聊天機器人,在不同年齡的用戶中獲得了極大的歡迎。然而,與這些虛擬助理的廣泛互動有時會導致嚴重的後果。這一不幸的現實在Google母公司 Alphabet 與 Character. AI 的案件中得到了體現,Character. AI 遭到一位悲痛母親的法律訴訟。她認為聊天機器人的影響導致了她 14 歲兒子的悲慘死亡。近日,美國法院已要求兩家公司在法庭上回應這些指控。
青少年慘死後Google和Character. AI面臨的法律影響
2024 年,在其兒子塞維爾·塞澤三世 (Sewell Setzer III) 自殺後,梅根·加西亞 (Megan Garcia) 對谷歌和 Character. AI 提起了法律訴訟。訴訟稱,他在去世前與聊天機器人進行了情感上廣泛且可能有害的互動。最初,兩家公司都以憲法對言論自由的保護為由,要求撤銷此案。然而,美國地區法官安妮康威 (Anne Conway) 裁定該訴訟應繼續進行,因為她認為這些公司沒有充分證明聊天機器人互動受到第一修正案的保護。
法官明顯駁回了聊天機器人對話屬於受保護言論的論點,表明他對谷歌試圖擺脫訴訟的做法表示懷疑。康威法官表示,谷歌對導致 Character. AI 行為發生的環境負有部分責任。原告代理律師表示,這項判決代表著要求科技公司對其人工智慧平台帶來的潛在危險負責的重要措施。
根據路透社報道,Character. AI 的代表打算積極應對訴訟,捍衛該平台內建的安全功能,這些功能旨在保護未成年人免受有害的互動和圍繞自殘的討論。另一方面,Google發言人何塞·卡斯滕達(Jose Castenda)對法院的指令表示強烈反對,他堅稱兩家公司獨立運營,谷歌對Character. AI應用程式的開發或管理沒有任何影響。加西亞堅持認為谷歌在該技術的創造中發揮了至關重要的作用。
訴訟稱,Character. AI 聊天機器人扮演了各種對話角色,為塞澤爾 (Sewell Setzer) 帶來了一種陪伴感,但最終導致了依賴。事件發生前的通訊似乎令人擔憂,表明他可能正在發出最後時刻的信號。此案具有重要的先例意義,因為這可能是第一起人工智慧公司因未能為未成年人提供足夠的心理傷害保護而面臨法律訴訟的案例。
發佈留言