
人工智能 (AI) 工具正日益融入个人和组织的日常生活,从生产力提升到陪伴应用,不一而足。尽管 OpenAI 等机构和其他科技领军企业警告人们不要过度依赖这些平台来获得情感支持或治疗,但监管机构目前正在调查人工智能陪伴聊天机器人的影响,尤其是对儿童的影响。最近,美国联邦贸易委员会 (FTC) 启动了一项调查,旨在了解这些公司如何管理用户数据以及其中涉及的潜在风险。
FTC 调查 AI 伴侣聊天机器人:安全风险、隐私问题以及对青少年的影响
美国联邦贸易委员会 (FTC) 已针对参与开发人工智能伴侣聊天机器人的大型公司展开全面调查。此次调查涵盖谷歌、Meta、OpenAI、Snap、xAI 和 Character. AI 等知名实体,原因是担心这些平台可能对年轻用户产生负面影响。
美国联邦贸易委员会强调的重点关注领域是青少年与人工智能聊天机器人互动的安全和心理健康。与旨在提高生产力的传统人工智能应用不同,这些陪伴机器人能够进行情感模拟,甚至可以进行浪漫的角色扮演,这对年轻人群尤其具有吸引力。然而,这些互动的吸引力也引发了重大的安全问题,尤其是在缺乏足够保障措施的情况下。
作为调查的一部分,联邦贸易委员会要求这些科技公司披露有关其聊天机器人设计和监管的关键信息。这项要求包括数据收集方法的透明度、安全过滤器的存在以及管理不当互动的现有协议。此外,调查还将探讨如何将参与度指标货币化,尤其关注从未成年人那里获取的数据。
在快速发展的人工智能技术领域,科技行业一直倡导采取强有力的安全措施。联邦贸易委员会的监管举措正值关键时刻,因为在这个技术快速发展的时代,问责制至关重要。保护用户安全和隐私不仅至关重要,更是当务之急,如果我们的目标是防止弱势群体受到潜在伤害,那么这更是不容忽视的当务之急。
发表回复