菜鸟AI - 让提示词生成更简单! 全站导航 全站导航
AI工具安装 新手教程 进阶教程 辅助资源 AI提示词 热点资讯 技术资讯 产业资讯 内容生成 模型技术 AI信息库

已有账号?

首页 > AI教程 > 谷歌新规引担忧:消息称外包人员被迫评估自己不擅长的 Gemini 回复
辅助资源

谷歌新规引担忧:消息称外包人员被迫评估自己不擅长的 Gemini 回复

2026-05-01
阅读 0
热度 0
作者 菜鸟AI编辑部
摘要

摘要

谷歌新规引担忧:外包人员被迫评估自己不擅长的Gemini回复 最近科技媒体的一则报道,把

谷歌新规引担忧:外包人员被迫评估自己不擅长的Gemini回复

最近科技媒体的一则报道,把谷歌推上了风口浪尖。事情的核心,是谷歌对其大模型Gemini的“质检”流程做了一项关键调整。简单来说,以后负责审核Gemini回答的外包评估员,不能再以“我不懂”为理由,跳过那些专业门槛高的题目了。消息一出,圈内立刻开始担心:这会不会让Gemini在医疗这类性命攸关的领域,更容易输出不靠谱的信息?

谷歌新规引担忧:消息称外包人员被迫评估自己不擅长的 Gemini 回复

了解这个调整之前,得先清楚谷歌是怎么给Gemini“挑错”的。为了提升模型表现,谷歌与日立旗下的GlobalLogic公司合作,由后者雇佣的一批合同工,充当Gemini回复的“判官”。他们得依据“真实性”等一系列标准,来评估AI生成的答案靠不靠谱。过去,这套流程有个挺人性化的“退出机制”:如果评估员觉得问题太专业,完全超出自己的知识范围——比如一个深奥的心脏病学问题,而评估员没有任何相关科学背景——他们完全可以选择“跳过”这条评估,让系统把它分配给更懂行的人。

但上周,情况变了。GlobalLogic内部传达了一项来自谷歌的新指令:评估员不能再以缺乏专业知识为由,跳过任何评估任务。对比一下新旧指导方针就一目了然:过去的说法是,“如果您没有评估此提示所需的关键专业知识(例如编码、数学),请跳过此任务。”现在呢?变成了:“您不应跳过需要特定领域知识的提示。”那遇到真不懂的怎么办?新规的答案是:评估你所能理解的部分,然后备注说明自己缺乏该领域的知识。

这个转变,立刻在内部和外部拉响了警报。核心矛盾在于,现在评估员可能不得不去“评判”一些他们完全陌生、技术性极强的内容,比如针对某种罕见疾病的详细解释。这不就等于让一个不懂医学的人去评判一篇医学论文的细节吗?难怪有合同工在内部沟通中直接质疑:“我一直以为,跳过的初衷就是为了把题目交给更专业的人,从而提高评估的准确性啊?”

根据最新的规定,评估员只剩两条“跳过”的理由:一是提示或AI回复本身信息完全不完整;二是内容涉及有害信息,且需要特殊许可才能评估。

那么,这项新规到底意味着什么?最直接的后果是,像医疗健康这类对准确性要求近乎苛刻的领域,其AI回复的评估工作,很可能将大量落在没有专业背景的评估员肩上。这无疑在流程上增加了一个风险点:Gemini输出不准确信息的可能性被放大了。外界的担忧很实在:特别是在健康咨询这种场景下,一个错误的AI建议,其潜在后果可能非常严重。

截至本文发布时,谷歌方面尚未对相关报道置评。但无论如何,这项关于“质检”规则的调整,已经让业界开始重新审视,在追求效率与规模的同时,该如何守住AI输出准确性的那条底线。

来源:互联网

免责声明

本网站新闻资讯均来自公开渠道,力求准确但不保证绝对无误,内容观点仅代表作者本人,与本站无关。若涉及侵权,请联系我们处理。本站保留对声明的修改权,最终解释权归本站所有。

同类文章推荐

相关文章推荐

更多