
随着对人工智能工具的依赖日益加深,许多用户开始向这些平台寻求各种帮助,包括医疗建议、个人支持和专业指导。这一趋势已将人工智能聊天机器人转变为虚拟个人助理,许多人依靠它们应对日常挑战。然而,这种日益增长的依赖引发了人们对过度依赖的担忧,尤其是在与这些平台共享的敏感信息的保密性和安全性方面。最近,OpenAI 首席执行官 Sam Altman 敦促用户谨慎使用人工智能处理个人事务,并警告不要在没有安全措施的情况下泄露高度个人信息。
Sam Altman 警告:ChatGPT 缺乏治疗师与客户之间的保密性
人工智能技术正在快速发展,情商和对话能力均有所提升。因此,越来越多的人开始使用聊天机器人进行治疗或情感援助。与重视患者隐私的传统疗法形成鲜明对比的是,人工智能缺乏法律框架来保护敏感讨论内容。据TechCrunch报道,Sam Altman 最近在与 Theo Van 合作的播客“This Past Weekend”中强调了这一点。他告诫人们,不要为了解决严重的个人问题而向人工智能工具寻求情感支持。
在讨论中,Altman 承认人工智能工具的情绪响应能力日益增强,这可能会给用户带来隐私保护的假象。然而,他强烈建议不要依赖人工智能进行治疗指导。人工智能与专业心理健康服务的根本区别在于后者的结构化法律保护。在适当的监管法规出台之前,Altman 敦促用户将人工智能工具视为传统疗法的补充资源,而非替代资源。他表达了对将人工智能视为知己可能带来的影响的担忧,并指出:
人们会用 ChatGPT 谈论生活中最私密的琐事。人们——尤其是年轻人——会用它来当心理治疗师和人生导师;他们遇到了一些感情问题,会问:“我该怎么办?”现在,如果你和心理治疗师、律师或医生谈论这些问题,他们享有法律特权。这涉及到医患保密、法律保密等等。而我们还没弄清楚,当你和 ChatGPT 交谈时,应该如何处理这些问题。
鉴于人工智能交互缺乏法律保密性,Altman 敦促谨慎使用这些工具,尤其是在敏感场景下。例如,如果有人面临法律挑战,OpenAI 可能会被迫披露对话内容,从而导致个人隐私泄露。Altman 表示希望人工智能最终也能获得类似的隐私保护,但他也感叹,技术的快速发展超过了必要法律框架的建立速度。
发表回复