Google 内部使用 Claude 训练 Gemini 比较输出以提高系统安全性

如今,人工智能的发展不时涉及与其他模型的比较。近日有消息称,谷歌可能正在使用竞争对手Anthropic的Claude模型来提高自家模型的安全性。

TechCrunch 报道称,谷歌正在委托一家外包商将 Gemini 的产出与 Claude 的产出进行比较。外包人员需要长达 30 分钟的时间来评估每组回复,报道援引外包人员的话说,他们在谷歌内部平台的待处理内容中发现了多个输出,标题是“我是来自 Anthropic 的克劳德” ”。

据外包员工透露,克劳德在安全方面表现优于双子座,克劳德会拒绝回应角色扮演等不安全的提示,而双子座则对某些提示输出了不适当的内容。虽然谷歌是 Anthropic 的主要投资者之一,但 Anthropic 的服务条款明确禁止未经许可使用 Claude 开发竞争产品或训练竞争 AI 模型。

谷歌 DeepMind 发言人 Shira McNamara 承认,他们确实在比较 AI 模型的输出,但否认使用 Claude 来训练 Gemini,但没有回应他们是否已获得 Anthropic 的许可来做输出比较。