
在快速发展的科技领域,各大科技公司频繁更新隐私政策已成常态。这些修订中反复出现的主题是:“我们正在使用您的数据来训练人工智能,除非您选择阻止我们。” 这种情况反映的并非真正的同意,而是一种普遍存在的数字疲劳感,用户对保护自身数据的需要感到不堪重负。
这种现象通常被称为“选择退出疲劳”,凸显了当今虚拟环境中数字权利的一个关键问题。用户现在不仅要浏览互联网,还要承担保护个人信息不被人工智能系统利用的责任。
转向默认选择加入:新常态
生成式人工智能技术的蓬勃发展,迫使企业积累大量用户数据,用于模型训练。最初,用户可以选择加入,但这种做法如今已成为一种默认规范。这种趋势已经演变成一种常态:用户同意即为默认,异议则需要付出努力。

例如,领英默认将用户生成的内容(例如帖子、评论和个人资料)集成到其人工智能训练中,尽管声称匿名,但实际上无需用户明确同意即可访问大量数据。用户可以选择退出,但这需要浏览多个菜单,而这个过程的前提是用户同意。
同样,Meta 的 Llama 模型会自动利用 Facebook 和 Instagram 的公开内容,甚至扩展到影响定向广告,而用户通常必须删除整个聊天线程才能维护隐私。
谷歌的 Gemini 项目同样允许 AI 访问 YouTube 历史记录和搜索查询,除非用户主动更改隐私设置。深入了解谷歌如何构建 Gemini Gems 的共享机制,可以揭示数据访问特权背后的“同意”假设。
此外,Anthropic 的 Claude 聊天机器人最近更新了其政策,将用户聊天记录保留长达五年以用于培训目的,对于那些希望避免此类数据保留的人来说,必须选择退出。
这种趋势是有意为之,反映了一种更广泛的战略,即公司优先考虑数据的无缝流动——利用大多数用户可能没有注意到这些变化,而那些注意到变化的用户往往缺乏时间或意愿采取行动的事实。
更为复杂的是,许多地区现有的隐私法规主要是为了解决 Cookie 和广告行为而设计的,这使得公司有余地建立这些选择退出默认设置,因为它们仍然领先于监管框架。
现行退出系统的缺陷
在线隐私选择的概念已日益沦为一种幻想。尽管用户理论上拥有选择退出的权利,但真正履行这一权利的人却寥寥无几,这主要是由于“同意疲劳”。海量的选择和政策更新常常让人不知所措,最终导致决策瘫痪。
人工智能公司利用了这种疲劳,创建了大量令人困惑的弹窗,削弱了“我们已更新隐私政策”通知的影响力。因此,点击“接受”已经从有意识的决定演变成一种自动反应。

根据皮尤研究中心2023 年的一项研究,近 80% 的美国人由于隐私政策过于复杂且耗时,而选择放弃阅读。企业非常了解这种行为,并据此制定相应的政策。
我们都经历过这种情况:明明知道应该仔细研究,却还是匆匆浏览了一遍条款。这些公司不需要欺骗;用户疲劳也能同样有效地达到他们的目的,将隐私的责任转嫁到个人身上。用户必须探索复杂的设置才能重新获得自己的数据权利。
就克劳德的案例而言,即使用户选择退出,过去的数据仍会保存数年,而谷歌的隐私设置可能只有在用户选择退出后才会删除历史记录,这迫使用户在维护实用性和确保隐私之间做出选择。许多平台都面临同样的困境。
谁真正受益?
当前围绕人工智能数据隐私的“选择退出”讨论不仅仅是一场争夺用户隐私的斗争,更是一场争夺经济利益和影响力的竞赛。人工智能公司从现有的数据消费体系中获益匪浅。

根据Semrush和Statista的预测,全球人工智能市场预计将从 2024 年的 6380 亿美元增长到 2030 年的 1.8 万亿美元,这主要得益于用户数据,这些数据允许进行模型训练而无需额外的许可成本。
LinkedIn 与 Azure 和 OpenAI 的整合、Meta 的扩张性 AI 计划以及谷歌的 Gemini 等技术,都依赖于持续收集海量数据以进行改进。用户生成的内容越多,这些系统的盈利能力就越强。
这种模式本质上保证了数据的持续涌入;用户作为提供免费培训材料的无偿劳动力,使公司能够在旨在优化或取代人类角色的产品中将这些见解货币化。
最终,这种情况会形成一种垄断环境,较小的人工智能实体难以与这些拥有丰富数据的巨头竞争。
结果显而易见:大型人工智能公司创造了一个循环:改进的人工智能解决方案吸引了更多用户,从而产生了更多的数据。与此同时,普通用户却只能从增强的功能中获益甚微,却牺牲了他们的隐私和对个人数据的控制权。
倡导真正的同意
尽管面临诸多挑战,用户仍保留自主权。在欧洲各地,积极主动的隐私倡导者正在根据《通用数据保护条例》(GDPR)对未经授权的人工智能数据处理行为提出投诉。GDPR第21条赋予个人反对处理其个人数据的权利,成千上万的人开始行使这项权利。
印度等地区已经全面实施了类似的隐私法,包括《DPDP法案》、中国的《PIPL》和加州的《消费者隐私法案》,这些法律都旨在遏制用于人工智能的数据采购和处理机制,并对违规行为处以高达全球营业额 4% 的罚款。
在隐私法较为落后的地区,保持警惕至关重要。采取主动措施,例如使用增强隐私的浏览器工具和禁用人工智能推荐,可以带来显著的效果。
立即关闭AI训练功能,调整Meta的配置,取消ChatGPT的“为所有人改进模型”链接,并调整Copilot的隐私设置。此外,建议删除旧聊天记录以限制潜在暴露,并在处理敏感信息时使用临时模式。
核心要点是,集体行动可以带来实质性的改变。如果用户团结起来,选择退出并表达异议,科技公司将被迫寻求真正的同意,而不是假设用户同意。
支持选择加入
然而,仅靠个人警惕是不够的。必须建立一种范式转变,将“选择加入”作为标准。实现这一点将减少企业的过度扩张,并有助于恢复信任。
采用明确的知情同意机制将使用户能够自愿决定是否共享数据。降低数据囤积的难度将遏制不道德的行为,鼓励采用授权数据集等合乎道德的数据获取方法。
实施“选择加入”偏好设置不会阻碍创新;相反,它可能会推动隐私增强技术的进步,例如改进匿名化,从而吸引数据共享者。例如,Proton 的 Lumo 聊天机器人就成功地体现了这种创新做法。
虽然我并不反对人工智能的发展——作为一名科技作家,我一直在探讨这些话题——但我主张的是选择的必要性。重点不应该放在侵犯隐私上,而应该通过真正的创新来尊重隐私。
通过意识赋予用户权力
默认选择加入政策不仅仅是为了方便,它代表着对控制权的追求。关于人工智能数据隐私的持续争论,不仅仅是一场技术讨论,更是一场争夺我们数字身份所有权的重大斗争。
“选择退出疲劳”的出现,表明科技巨头如何利用用户疲劳来制造武器。他们的胜利在于用户不再争夺控制权。因此,我们必须坚定不移,不能放弃自主权。
接受默许只会让他们更容易在未经我们批准的情况下采取行动。因此,我们必须保持警惕,并要求优先保护数据隐私。
发表回复