Meta 因用户无意分享 AI 应用上的敏感聊天内容而发布隐私警告,专家认为此举并未解决根本问题

Meta 因用户无意分享 AI 应用上的敏感聊天内容而发布隐私警告,专家认为此举并未解决根本问题

人工智能 (AI) 技术的快速发展促使各组织优先考虑负责任地使用和控制共享信息。用户常常发现自己过度依赖这些平台,导致无意中在公共信息流中过度分享信息。为此,Meta 推出了一项免责声明,旨在遏制过度披露,尤其是在其 AI 平台上共享的敏感或私人数据。

Meta 采取行动:针对 AI 应用过度分享问题发布新免责声明

随着人工智能工具的不断普及,监管机构日益强调人工智能的道德使用和数据保护的重要性。许多用户在这些平台上不知情地泄露个人信息,引发了人们对隐私的严重担忧,并对数字内容产生了强烈反响。为了避免潜在的法律问题和声誉损害,Meta 已更新其应用程序,并在其中添加了关于个人信息共享的明确警告。

《商业内幕》的一篇报道强调,这款应用已成为一个令人不安的空间,充斥着大量私密且可能令人尴尬的帖子。用户并未意识到他们的信息可能会被公开的“发现”动态查看,导致私人对话被意外泄露。虽然 Meta AI 应用不会自动公开用户聊天记录,但许多人无意中将这些敏感对话暴露给了更广泛的受众。

自该应用于今年4月上线以来,各种私人对话,从财务问题到健康咨询,都在用户不知情的情况下被公开。“发现”应用推送中出现了一些不寻常对话的截图,并在社交媒体上传播,引发了社区和企业的关注。隐私权倡导者对Meta默认社交信息流过度使用表示强烈担忧,这与其他人工智能聊天平台的做法形成了鲜明对比。

曾使用过 Meta 的安全专家 Rachel Tobac 对此用户体验中固有的潜在风险提出了警告,她表示:

人类已经围绕人工智能聊天机器人建立了一个模式,并且并不期望他们的人工智能聊天机器人提示出现在社交媒体风格的发现提要中——这不是其他工具的功能方式。

同样,Mozilla 基金会也敦促 Meta 重新考虑应用的布局,并确保用户的帖子公开时收到通知。Meta 迅速回应了这些担忧,在其 AI 应用中公开分享的对话中设置了一次性警告标志。警告内容如下:

您发布的提示是公开的,所有人都可以看到。您的提示可能会被 Meta 在其他 Meta 应用上推荐。请避免分享您的个人信息或敏感信息。

虽然 Meta 解决日益严重的隐私问题的举措值得称赞,但该公司应该对用户体验进行更全面的改革,更加重视隐私和控制。

来源和图片

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注