
OpenAI 正在加大对通用人工智能 (AGI) 的追求,尤其是在 DeepSeek 的竞争日益激烈的情况下,DeepSeek 已成为人工智能领域的强大参与者。该公司已经阐明了其对高级人工智能代理的愿景,并认为这是下一个重要里程碑。然而,这一承诺是在人们对安全性和竞争进步之间微妙平衡的持续审查中做出的。最近,OpenAI 对人工智能安全的态度遭到了强烈反对,尤其是来自前员工对公司不断变化的叙述提出质疑。
前政策负责人对 OpenAI 人工智能安全叙述的批评
为了吸引社区参与,OpenAI 概述了其逐步部署 AI 技术的方法,并以 GPT-2 的谨慎推出为基准。然而,这种方法并没有得到普遍接受。OpenAI 前政策研究员 Miles Brundage 曾公开批评该公司涉嫌歪曲其 AI 安全历史的叙述。
OpenAI 发布的这份文件强调了其对 AI 部署的迭代和深思熟虑方法的承诺。该文件讨论了从过去的实践中学习以增强未来安全措施的重要性。具体来说,它引用了 GPT-2 作为该公司谨慎战略的一个例子,声称其目标是在复杂的环境中以高度警惕的态度对待当前系统。该文件阐明了:
在一个不连续的世界里 […] 安全教训来自于对当今系统的高度谨慎,相对于其明显的威力,[这] 就是我们对 [我们的人工智能模型] GPT-2 采取的方法。我们现在将第一个 AGI 视为一系列越来越有用的系统中的一个点 […] 在连续的世界中,让下一个系统安全且有益的方法是从当前系统中学习。
曾担任 OpenAI 政策研究主管的 Brundage 强调,GPT-2 的推出遵循了有条不紊的轨迹,OpenAI 在整个开发过程中提供了见解。安全专家承认这种逐步部署是负责任的。他坚持认为,谨慎的做法是必不可少的,而不是过于犹豫不决。
这篇文章的大部分内容都很好+我为那些致力于讨论实质性工作的人们鼓掌。
但我对“AGI 需要很多步骤,而不是一次巨大的飞跃”部分感到非常恼火/担忧,它以令人担忧的方式改写了 GPT-2 的历史。https ://t.co/IQOdKczJeT
– Miles Brundage (@Miles_Brundage) 2025 年 3 月 5 日
Brundage 进一步表达了对 OpenAI 断言 AGI 将逐步发展而非突然突破的不安。他批评该公司可能歪曲了过去发布的时间表并重新定义了安全标准,他认为这可能会破坏有关技术进步过程中 AI 风险的批判性讨论。
此次事件再次表明,OpenAI 面临质疑,质疑其是否致力于将长期安全置于快速创新和利润之上。布伦戴奇等专家继续对谨慎对待人工智能安全的重要性表示担忧,尤其是在发展速度加快的情况下。
发表回复