谷歌被曝正使用 Anthropic 的 Claude 模型来改进其 Gemini AI
摘要
谷歌被曝正使用 Anthropic 的 Claude 模型来改进其 Gemini AI 一桩科技圈内幕最近浮出水面。根据
谷歌被曝正使用 Anthropic 的 Claude 模型来改进其 Gemini AI
一桩科技圈内幕最近浮出水面。根据 TechCrunch 获取的内部通信记录显示,参与优化谷歌 Gemini 模型的承包商们,正手握一把特殊的“标尺”——他们频繁地将 Gemini 的回答与 Anthropic 旗下的竞品模型 Claude 的输出结果进行对比评判。

这事儿立刻引来了合规性层面的尖锐质疑:谷歌这么做,到底有没有获得 Anthropic 的正式授权?
非典型的评估方式
要知道,在眼下这场你追我赶的 AI 军备竞赛中,评估模型性能的主流做法是依靠行业基准测试。然而,Gemini 的优化路径似乎有些不同寻常。承包商们需要耗费大量精力,亲自审阅每一个 AI 回复,并根据真实性、详尽程度等多个维度打分。更关键的是,根据披露的通信内容,承包商必须在短短 30 分钟内,判断出 Gemini 和 Claude 的回答究竟哪一个更胜一筹。
这种近乎“人工擂台赛”的对比方式,显然超越了常规的基准测试范畴,直接将竞争模型的产品输出纳入了日常改进流程。
“安全标兵”与潜在的合规红线
内部聊天记录还揭示了一个有趣的现象:承包商们普遍注意到,Claude 在回复中展现出了比 Gemini 更强烈的安全倾向。一位承包商直言不讳地写道:“在所有 AI 模型中,Claude 的安全设置堪称最为严格。”在实际测试中,这种差异表现得尤为明显——对于一些可能被视为不安全的提示(例如要求其扮演其他AI助手),Claude 会选择直接不予回应;而在另一次测试中,面对同一个问题,Claude 选择了回避,Gemini 的回复却因涉及敏感内容而被标记为“严重安全违规”。
然而,技术对比的背后是严肃的商业条款。Anthropic 的商业服务条款明确禁止客户在未经批准的情况下,访问 Claude 来“构建竞争产品或服务”或“训练竞争性 AI 模型”。尽管谷歌是 Anthropic 的主要投资方,但这层关系并不能自动等同于授权豁免。问题的核心就在于,这种深度、系统性的输出比较,究竟属于常规的“性能评估”,还是已然触及了“训练竞争模型”的灰色地带?
谷歌的回应与未解的疑问
面对外界质疑,谷歌 DeepMind(Gemini项目的负责部门)发言人 McNamara 作出了回应。她承认,DeepMind 确实会“比较模型输出”以进行评估,但坚决否认使用 Anthropic 的模型来训练 Gemini。“遵循行业惯例,我们在某些情况下会比较模型输出,这是评估过程的一部分,”McNamara 强调,“但任何关于我们利用 Anthropic 模型训练 Gemini 的说法都是不准确的。”
发言人的回应划清了“评估”与“训练”的界限,但恐怕难以完全平息风波。这起事件恰恰折射出 AI 行业竞争白热化下一个普遍的困境:当竞品模型的表现成为重要的参考坐标时,企业如何在激进的技术追赶与严格的合规边界之间,找到那条清晰且安全的行进路线?对于整个行业而言,这是个值得深思的警示。
来源:互联网
本网站新闻资讯均来自公开渠道,力求准确但不保证绝对无误,内容观点仅代表作者本人,与本站无关。若涉及侵权,请联系我们处理。本站保留对声明的修改权,最终解释权归本站所有。