谷歌的 Gemini AI 训练引人注目
TechCrunch最近的一份报告揭示了谷歌在训练 Gemini AI 时采用的一些有趣的方法。作为这一开发过程的一部分,谷歌已招募承包商,负责根据各种标准评估 AI 的输出,包括准确性、清晰度和安全性。值得注意的是,这些承包商正在使用 Anthropic 的大型语言模型 (LLM) Claude 作为比较 Gemini 生成的响应的基准。
比较过程中发现的异常
在最近的观察中,谷歌内部分析平台的承包商发现了一个意想不到的问题:其中一个归因于 Claude 的输出被呈现为 Gemini 的响应。进一步审查发现,一些响应表现出 Claude 的特征,特别是在安全方面。例如,一个值得注意的例子是 Claude 拒绝以另一个 AI 助手的身份参与角色扮演场景,这引起了人们对该模型谨慎态度的关注。
Anthropic 服务条款的含义
Anthropic 制定的明确服务条款使这种情况更加复杂。这些条款明确禁止使用 Claude 的成果来开发竞争产品:
使用限制。客户不得且不得尝试 (a) 访问服务以构建竞争产品或服务,包括训练竞争 AI 模型,除非 Anthropic 明确批准;(b) 对服务进行逆向工程或复制;或 (c) 支持任何第三方尝试本句中限制的任何行为。客户及其用户只能在 Anthropic当前支持的国家和地区使用服务。
谷歌的不置可否的回应
当 TechCrunch 询问他们是否从 Anthropic 获得了使用 Claude 输出所需的许可时,谷歌的回答并不明确。DeepMind 发言人 Shira McNamara 评论道:
当然,按照行业标准惯例,在某些情况下,我们会将模型输出进行比较作为评估过程的一部分。
探索人工智能领域
虽然跨模型比较是人工智能开发中的一种普遍做法,即公司将自己的模型与竞争对手进行对标,以衡量性能并设计改进方案,但未经明确同意直接使用或模仿其他模型的输出行为会带来重大的道德问题。随着人工智能行业竞争日益激烈,这种情况正在显现。谷歌最近推出了 Gemini 的实验版本,据报道,它在多个评估类别中超越了 OpenAI 的 GPT-4o。与此同时,Anthropic 继续推进 Claude,最近的改进使其能够实现多种对话风格,并提供了一个集成工具,可直接在其界面内编写和执行 JavaScript 代码。
发表回复