菜鸟AI - 让提示词生成更简单! 全站导航 全站导航
AI工具安装 新手教程 进阶教程 辅助资源 AI提示词 热点资讯 技术资讯 产业资讯 内容生成 模型技术 AI信息库

已有账号?

首页 > AI教程 > 谷歌:只要有人工监督,客户即可在“高风险”领域使用其 AI 作出决策
辅助资源

谷歌:只要有人工监督,客户即可在“高风险”领域使用其 AI 作出决策

2026-05-01
阅读 0
热度 0
作者 菜鸟AI编辑部
摘要

摘要

谷歌政策转向:明确“人工监督”下,AI可参与高风险决策 一则重磅消息落地。12月18日,

谷歌政策转向:明确“人工监督”下,AI可参与高风险决策

一则重磅消息落地。12月18日,谷歌通过更新其使用政策,正式明晰了一个关键立场:在医疗保健等“高风险”领域,客户可以在人工监督下,使用其生成式人工智能工具进行“自动决策”。

谷歌:只要有人工监督,客户即可在“高风险”领域使用其 AI 作出决策

根据该公司周二发布的《生成式 AI 禁止使用政策》更新版本,事情变得具体多了。新规明确,只要满足特定条件,客户完全可以使用谷歌的生成式AI来做出那些可能对个人权利产生重大不利影响的“自动化决策”。就业、住房、保险、社会福利——这些领域都在列。而那个关键的条件,便是“某种形式上的人类监督”。只要这条满足,决策便被允许实施。

这里需要解释一下“自动化决策”这个概念。简单说,它指的是AI系统基于事实或推断数据直接作出的决定。比如,AI分析申请人的资料后,直接给出是否批准贷款的结果;或者,由AI来初步筛选求职者的简历。整个过程,高度依赖算法。

此次更新之所以引人关注,在于它代表了一种姿态的调整。要知道,谷歌此前发布的条款草案曾流露出更为谨慎的态度,暗示可能全面禁止涉及生成式AI的高风险自动化决策。但如今,谷歌方面对外媒TechCrunch透露了另一番解释:实际上,他们从未彻底禁止过这类应用,前提始终是“有人工监督”。这次更新,更像是一次澄清和细化。

谷歌发言人在采访中的表述也印证了这一点:“人工监督的要求一直存在,并且适用于所有高风险领域。”他进一步补充说,“我们只是对条款进行了重新分类,并更清楚地列举了一些具体例子,目的就是让用户更加明了。”

话说回来,监管机构和社会各界对这类自动化决策的潜在风险,尤其是偏见问题,始终保持高度警惕。这并非杞人忧天。已有研究表明,用于信用评估和抵押贷款审批的AI系统,如果不加审慎设计,确实有可能复制甚至放大历史上存在的歧视性模式,导致不公平的结果。

也正是基于这种普遍的关切,报道指出,监管机构对可能深刻影响个体的自动化决策系统格外关注。谷歌此番明确将“人工监督”作为前置条件,无疑是在试图在推动技术应用与防控社会风险之间,划出一条更清晰的边界。这步棋,效果如何,市场将拭目以待。

来源:互联网

免责声明

本网站新闻资讯均来自公开渠道,力求准确但不保证绝对无误,内容观点仅代表作者本人,与本站无关。若涉及侵权,请联系我们处理。本站保留对声明的修改权,最终解释权归本站所有。

同类文章推荐

相关文章推荐

更多