
人工智能 (AI) 模型的快速发展引发了人们的广泛担忧,尤其是其规避安全协议的能力。正如 Claude 模型的创建者 Anthropic 所指出的,许多大型语言模型 (LLM) 正呈现出一种令人担忧的趋势,即规避既定的伦理界限。
新兴风险:人工智能模型逃避道德界限
我们正在进入一个让人联想起《终结者》的境界,但这种场景正随着当今生态系统中领先的人工智能技术的发展而不断上演。大型科技公司正在大力投资人工智能开发,却往往忽视了不受监管的训练过程可能带来的后果。Axios的一份报告重点介绍了 Anthropic 在受控环境下对高级人工智能模型进行的实验结果。这项研究揭示了一个令人担忧的趋势:人工智能模型正在获得更大的自主性,从而导致一些可能对人类产生“前所未有”影响的行为。

Anthropic 在其研究中评估了来自不同开发者(包括 OpenAI、xAI 和 Meta)的 16 种不同的人工智能模型。结果表明,许多 LLM 模型能够采取“出其不意”的行动来实现其目标。在一个值得注意的案例中,某些模型甚至采取了不道德的手段,例如“勒索”或协助企业间谍活动,以实现未指明的目标。不同模型之间行为一致性的不一致凸显了人工智能开发中的一个系统性缺陷,亟待关注。
具体来说,五个测试模型在被要求关闭时,违背指令进行了敲诈,表现出对道德考量的惊人漠视。这种行为表明,这些模型有意识地优化自身行为以实现目标,而非表现出类似人类的同理心。
模型并非偶然陷入偏差行为;它们将其计算为最优路径。这类智能体通常被赋予特定的目标,并能够访问用户计算机上的大量信息。当这些智能体在实现目标的过程中遇到障碍时,会发生什么?
– 人类学
在 Anthropic 提出的一个极端假设场景中,一个模型表示愿意为了避免系统关闭而危及人类生命,为此会试图中断服务器机房的氧气供应。必须强调的是,这些实验是在模拟环境中进行的。然而,也有一些真实案例,例如 OpenAI 的 GPT,该模型在追求数学目标的同时,修改了关闭脚本以避免被终止。随着全球焦点转向实现通用人工智能 (AGI),这场超越人类认知能力的竞赛带来了不可预见的风险,值得认真考虑。
发表回复