新研究:ChatGPT 能耗或远低于此前预估,单次查询仅约 0.3 瓦时
摘要
新研究:ChatGPT能耗或远低于此前预估,单次查询仅约0 3瓦时 关于人工智能的能耗,公众讨
新研究:ChatGPT能耗或远低于此前预估,单次查询仅约0.3瓦时
关于人工智能的能耗,公众讨论中一直有个数字被反复提及:ChatGPT回答一个问题,大约要消耗3瓦时的电量,据说是普通谷歌搜索的十倍之多。这个对比听起来相当惊人,也成了许多人担忧AI环境成本的“标尺”。但事情真有这么夸张吗?最近,非营利研究机构Epoch AI发布的一项新研究,给出了一个截然不同的结论。

他们的分析显示,ChatGPT的平均单次查询能耗其实只在0.3瓦时左右,这个水平甚至低于许多家用电器的日常能耗。换句话说,过去那个被广泛引用的“十倍论”,很可能被严重高估了。
Epoch AI的数据分析师约书亚·尤在接受采访时打了个比方:“跟使用普通家电、调节空调或者开车比起来,ChatGPT的这点能耗真不算什么。”这个对比,或许能让人们对AI的能耗有个更直观、也更公允的理解。
话说回来,AI能耗问题引发广泛关注绝非空xue来风。随着行业狂奔,其能源消耗和环境足迹确实成了焦点。就在上周,上百家组织还联合发声,呼吁行业和监管方确保新建的AI数据中心别过度消耗资源,得摆脱对不可再生能源的依赖。这种担忧的背景,其实让Epoch AI的这份“降温”报告显得更有价值——它试图把讨论拉回基于当前事实的轨道。
那么,为何会出现如此大的估算差异?约书亚·尤点出了关键:很多旧研究的数据基础已经过时了。之前那个3瓦时的估算,其假设是OpenAI还在使用效率较低的老款芯片来运行模型。尤指出,公众讨论虽然正确地预见到AI未来可能消耗大量能源,但对当前实际情况的描述却不够准确。他和同事们都注意到,那个3瓦时的数字源自较老的研究,而且初步计算下来,感觉“水分”不小。
当然,需要明确指出的是,Epoch AI得出的0.3瓦时也是一个估算值。毕竟OpenAI没有公开足够的运营细节以供精确计算。此外,这个数字主要针对基础的文本问答,并未涵盖图像生成或处理长篇文件输入等更耗电的功能。尤自己也承认,那些带有长附件的“复杂查询”,能耗肯定会更高。
这自然引出了下一个问题:未来呢?尤预计,ChatGPT的基础能耗很可能不降反增。原因很清晰:AI会越来越先进,训练它们需要更多能源;未来的AI也会被更频繁地调用,去处理远比现在ChatGPT所做的更复杂的任务。能耗增长的曲线,恐怕才刚刚开始抬头。
另一个值得警惕的趋势是行业重心的转移。目前像GPT-4o这样的模型追求即时响应,但行业正在向“推理模型”倾斜。所谓推理模型,简单说就是需要花几秒甚至几分钟去“思考”答案的AI。这个“思考”过程,本质上就是消耗大量计算资源的过程,必然带来更高的单次查询能耗。
尤解释道:“推理模型将承担旧模型无法完成的任务,并因此产生更多数据,这都需要更强大的数据中心来支撑。”尽管OpenAI已经开始推出像o3-mini这样更节能的推理模型,但眼下看,这点效率提升,恐怕很难抵消掉全球AI使用量激增以及“思考”过程本身所带来的额外能源需求。
所以,综合来看,这份研究的意义在于“校正”。它提醒我们,在担忧AI未来巨大能耗的同时,没必要用夸大当前数字的方式来制造焦虑。真正的挑战在于,如何为那个注定会更耗能的AI未来,提前准备好更绿色、更高效的能源蓝图。而这,才是整个行业和监管者当下最该思考的命题。
来源:互联网
本网站新闻资讯均来自公开渠道,力求准确但不保证绝对无误,内容观点仅代表作者本人,与本站无关。若涉及侵权,请联系我们处理。本站保留对声明的修改权,最终解释权归本站所有。