菜鸟AI - 让提示词生成更简单! 全站导航 全站导航
AI工具安装 新手教程 进阶教程 辅助资源 AI提示词 热点资讯 技术资讯 产业资讯 内容生成 模型技术 AI信息库

已有账号?

首页 > AI教程 > 谷歌 AI 原则生变:删除“不用于武器”的承诺
辅助资源

谷歌 AI 原则生变:删除“不用于武器”的承诺

2026-05-01
阅读 0
热度 0
作者 菜鸟AI编辑部
摘要

摘要

谷歌 AI 原则生变:删除“不用于武器”的承诺 这周科技圈有个不大不小的动向,值得关注

谷歌 AI 原则生变:删除“不用于武器”的承诺

这周科技圈有个不大不小的动向,值得关注。彭博社率先发现,谷歌在其官网的“人工智能原则”页面上,悄悄删除了一个重要的承诺声明。具体来说,那个名叫“我们不会追求的应用”的章节,在上周还能看到,但现在已经不见了。这一部分内容,原本明确表示谷歌不会开发用于武器或监控的人工智能。

谷歌 AI 原则生变:删除“不用于武器”的承诺

面对外界的询问,谷歌方面没有直接解释这一改动,而是向媒体提供了一篇关于“负责任人工智能”的新博客文章作为回应。文章的表述很官方,大意是:秉持这些价值观的公司、政府和组织应该携手合作,共同开发能够保护人类、促进全球增长并支持国家安全的人工智能。你看,字里行间虽然强调了合作与责任,但与之前斩钉截铁的“不用于武器”相比,措辞显然发生了微妙变化。

翻看更新后的人工智能原则页面,谷歌依然承诺会努力“减少意外或有害的结果,并避免不公平的偏见”,并确保其AI发展符合“广泛接受的国际法和人权原则”。这些表述本身没有问题,甚至可以说是行业的标准话术。但问题在于,原来那条清晰的红线被拿掉了。

话说回来,这种转变并非无迹可寻。近年来,谷歌与美国和以色列军方签订的云服务合同,在公司内部就曾引发过不小的抗议浪潮。谷歌一直对外坚称,其人工智能技术不会被用于伤害人类。然而,另一个声音也值得注意:美国国防部的人工智能负责人近期曾向媒体透露,一些公司的人工智能模型,确实正在加速美军“杀伤链”的流程。两相对比,现实情况与理想原则之间的张力,已经显而易见。

来源:互联网

免责声明

本网站新闻资讯均来自公开渠道,力求准确但不保证绝对无误,内容观点仅代表作者本人,与本站无关。若涉及侵权,请联系我们处理。本站保留对声明的修改权,最终解释权归本站所有。

同类文章推荐

相关文章推荐

更多