谷歌更新人工智能在军事武器中的应用承诺

谷歌更新人工智能在军事武器中的应用承诺

人工智能的兴起:影响与发展

人工智能 (AI) 已成为人们关注的焦点,随着大型语言模型 (LLM) 聊天机器人(如美国的 ChatGPT 和中国的 DeepSeek)的风靡一时,人工智能引起了全球关注,并对股市产生了显著影响。这种新的兴趣引发了有关人工智能对各个行业的影响的相关问题,尤其是对于那些可能不熟悉“人工智能”一词的人来说。

对人工智能技术的担忧

尽管人工智能带来诸多好处,但其固有风险不容忽视。虚假信息、隐私泄露、过度依赖技术以及潜在的军事应用等问题令人担忧。减轻此类危险的责任完全落在人工智能先驱和行业领袖身上。

Google 对负责任的 AI 的承诺

为了应对这些挑战,谷歌始终将人工智能开发领域的安全放在首位。过去六年来,该公司每年都会发布一份“负责任的人工智能进展报告”。最近,他们发布了2024 年进展报告,该文件概述了他们为加强人工智能安全所做的持续努力。

最新报告的一项重要更新是修改了谷歌的 Frontier 安全框架。该框架由 Google DeepMind 发起,旨在主动识别和解决与高级 AI 系统相关的潜在风险。一些关键增强功能包括:

  • 加强安全的建议:提出加强防范数据泄露的安全措施的策略。
  • 部署缓解程序:制定指导方针,防止滥用强大的人工智能功能。
  • 欺骗性对准风险:应对可能操纵人类监督的自主系统所带来的威胁。

人工智能发展中的民主领导力

除了更新安全协议外,谷歌还重申了其立场,即民主国家应引领人工智能技术的发展,强调自由、平等和尊重人权等价值观。该公司还宣布对其 2018 年首次发布的原始人工智能原则进行修订。

谷歌人工智能原则的变化

访问“人工智能原则”页面会发现,关于在武器中使用人工智能的内容明显缺失。2024 年 2 月 22 日的存档版本包括承诺不创建或部署用于伤害的人工智能技术:

其主要目的或实施目的是对人造成伤害或直接促进对人的伤害的武器或其他技术。

然而,修订后的原则中删除了这一承诺,目前主要集中于三个核心原则:

  • 大胆创新:我们的目标是开发人工智能技术,赋予个人权力并推动各个领域的进步,增进经济和社会福利。
  • 负责任的开发和部署:认识到人工智能的变革性质,我们致力于通过严格的测试和道德考虑确保其安全开发和实施。
  • 共同协作、不断进步:我们重视合作伙伴关系,并致力于创造能够让其他人利用人工智能取得积极成果的技术。

员工顾虑和道德考量

有趣的是,谷歌尚未解决其先前承诺的取消问题,该决定遭到了员工的强烈反对。2018 年,近4, 000 名员工签署了一份请愿书,要求终止该公司与美国国防部的合同,即 Maven 项目,该项目利用人工智能分析无人机图像。

最近,谷歌 DeepMind 员工也表达了类似的担忧,敦促这家科技公司切断与军事实体的联系。这一行动呼吁提到了该公司的人工智能原则,认为这种关系与他们之前不开发军事技术的承诺相冲突。

如需进一步了解,请访问Seek.com

来源和图片

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注