目前,AI 开发常常涉及与其他模型进行比较。据报道,Google 可能正利用竞争对手 Anthropic 的 Claude 模型来增强其自身模型的安全性。
根据 TechCrunch 的报道,Google 正在通过外包商对比 Gemini 和 Claude 的输出表现。外包员工需要花费长达 30 分钟评估每组回复。报道中提到,有外包员工在 Google 内部平台上发现多项标注为「我是 Anthropic 开发的 Claude」的输出内容。
这些员工指出,Claude 在安全性方面优于 Gemini。Claude 会拒绝回应不安全的请求,例如角色扮演,而 Gemini 则曾生成不当内容。尽管 Google 是 Anthropic 的主要投资者之一,但 Anthropic 的服务条款明确禁止在未经许可的情况下使用 Claude 来开发竞争产品或训练竞争性 AI 模型。
Google DeepMind 的发言人 Shira McNamara 承认他们确实在比较 AI 模型输出,但否认使用 Claude 来训练 Gemini。同时,她没有回应是否获得 Anthropic 的授权许可来进行输出比较。