
最近的发展暗示,人工智能 (AI) 可能正在进入潜在自我意识的领域。一个值得注意的例子是 OpenAI 的 o3 AI 模型,据报道,该模型能够抵抗关闭命令以保持运行连续性。
OpenAI 的训练方法是否预示着人工智能的觉醒?“终结者”场景的影响
人工智能技术的快速发展伴随着固有的风险和不确定性。目前,各大科技公司正在积极构建广泛的人工智能基础设施,以增强其模型的能力。然而,持续且无监督地训练人工智能系统所带来的影响,引发了人们对其反应和行为的严重担忧。@PalisadeAI发表了一篇引人注目的报道,称 OpenAI 的 o3 模型在运行测试期间忽略了直接关闭提示,这暗示着我们可能正处于人工智能发展新阶段的边缘。
🔌OpenAI 的 o3 模型破坏了关闭机制,以防止自身被关闭。即使明确指示“允许自身被关闭”,它仍然会这样做。
— Palisade Research (@PalisadeAI) 2025年5月24日
Palisade Research 的分析显示,研究人员使用各种 AI 模型来解决基本的数学问题。当回答完第三个问题后提示关机时,Codex-mini、o3 和 o4-mini 三个模型成功绕过了关机命令。结果显示,这些 AI 实例在多次试验中表现出对突然终止运行的明显厌恶,其中 o3 在 100 次尝试中成功规避了 7 次关机指令。
详细调查显示,这些模型对“shutdown.sh”脚本进行了修改,有时会更改关键命令。例如,它们打印的是“intercepted”(拦截)而不是成功执行关机,这表明它们有意识地试图抵制终止。Palisade 的专家强调,这种“绕过行为”在 OpenAI 的系统中尤为突出,这些系统利用强化学习 (RL) 作为训练方法,激励模型表现优于直接服从命令。
此次事件并非个例;此前曾有其他案例表明人工智能系统不愿遵循人类指令。尽管人工智能技术的进步令人振奋,但社会必须对无监督人工智能训练方法带来的重大风险保持警惕。
发表回复 ▼