AI算力瓶颈解析:为何“存力”成为关键制约因素
摘要
人工智能发展重心转向推理,存储能力成为新瓶颈。大模型应用对数据存取速度要求苛刻,
人工智能大模型的竞争格局正在发生关键性演变。当行业重心从模型训练转向大规模推理,从云端部署延伸至实际业务场景,单纯依赖算力规模已无法构建可持续的竞争优势。
在中国电子工业标准化技术协会数据存储专业委员会近期组织的“凝共识、探未来,走进先进存力”研讨活动中,一个核心判断获得广泛认同:存储系统的性能与架构,已成为制约AI技术深度应用与效能释放的关键瓶颈,其战略价值亟待被重新评估与挖掘。
算力遭遇瓶颈:存储系统成为关键掣肘
赛迪顾问电子信息产业研究中心副总经理袁钰分析指出,AI应用正从早期的消费级场景,快速渗透至金融、制造、科研等生产系统的核心环节,任务复杂性与实时性要求呈指数级增长。大模型在线推理、智能体交互等应用的普及,使得数据存取的低延迟与高吞吐成为影响用户体验的决定性因素。“用户发起一个查询,若系统响应迟滞或输出质量不稳定,其深层原因往往可以追溯到数据供给链路的效率问题。”

中电标协副理事长兼秘书长丁然的观点更为明确:“当前,AI基础设施的瓶颈已从算力不足转向存力不足。”她进一步阐释,万亿参数模型、百万级上下文窗口已成为常态,这对存储系统的带宽、IOPS及访问延迟提出了前所未有的苛刻要求。GPU及HBM的容量与带宽存在物理上限,导致计算单元频繁因等待数据而闲置。整个系统的性能瓶颈,已从“计算速度”转变为“数据搬运效率”。
中电标协数据存储专委会秘书长孙钢深度解读了这一转变。他认为,在AI驱动的技术范式下,存储与计算的关系正经历根本性重构。“传统架构中,存储更像一个被CPU调用的静态仓库。而在AI场景中,GPU需要直接、高速地从存储中获取数据。若仍需经过CPU中转调度,大量的计算周期将浪费在无效等待上。”
他给出了一个形象的比喻:“算力是冲锋在前的尖兵,但其作战效能却受制于后方补给线——存储系统的速度。一旦存储吞吐跟不上,再强大的算力也无法避免空转损耗。”特别是在推理场景下,KV Cache缓存、长序列支持、热温冷数据分层等新需求,正推动存储的角色从“计算辅助”演变为“存算一体”的核心参与者。他甚至预判,未来的存储系统可能需要具备对数据内容的初步理解与预处理能力,实现从被动存储到主动管理的跨越。
作为产业实践者,中科曙光北京公司总裁助理、分布式存储产品部总经理石静分享了来自一线的洞察。她指出,存储正从传统的“数据承载平台”转变为影响整体效率的“主动性能引擎”。“我们在多个大型AI集群项目中观察到,存储常常是木桶中最短的那块板——算力充沛、网络高速,但存储性能成为瓶颈。为此,行业已推进多项针对性优化,例如利用本地NVMe SSD构建全局共享缓存、通过GDS等技术实现GPU对存储的直接访问。在自动驾驶万卡集群的实际应用中,这类优化使GPU有效利用率提升超过30%;在科学计算AI训练场景中,整体训练周期缩短了20%至30%。
石静同时指出,当前的技术演进仍带有一定的“被动性”——往往是存储成为瓶颈后才着手改进。她更期待行业能迈向“主动设计”的新阶段:“我们能否以数据流为中心,重构整个技术栈?例如,围绕KV Cache的极致优化来设计推理框架,甚至以数据资产为核心,重新构建其确权、流转与安全体系。当前的主流思路仍围绕计算展开,我们希望未来存储能够真正成为驱动业务架构创新的核心要素之一。”
破局之道:标准统一与产业协同刻不容缓
面对存力瓶颈这一普遍挑战,建立统一的行业技术标准与协同机制已迫在眉睫。丁然透露,中电标协正从三个维度推进相关工作:一是标准制定,聚焦AI存算一体接口、能效评估、兼容性等关键领域;二是架构创新,推动CXL、GPU直连存储等前沿技术的标准化落地;三是生态建设,汇聚产业链上下游力量,构建存算协同、高效融合的产业格局。
孙钢补充强调,目前各厂商的解决方案仍呈碎片化,知识体系尚未打通。他呼吁业界应尽快建立面向AI场景的存储价值评估体系,其指标不应局限于传统的容量与可靠性,更需纳入对推理加速效果、知识库构建效率、总体拥有成本(TCO)等维度的综合考量。据其透露,一套旨在定义新一代AI存储能力的技术框架预计将于今年年中正式发布。
石静则从产业节奏角度指出,AI为存储行业带来了前所未有的发展机遇,但窗口期非常短暂。“AI算力的演进速度远超以往,存储厂商必须快速从终端应用场景中捕捉真实需求,摒弃过去追求通用化、大而全的产品思路,转而深耕细分场景,实现技术的快速迭代与交付。”她表示,中科曙光已在分布式存储架构、存算协同优化、绿色低碳技术等多个方向进行战略布局,以全面应对这场由AI引发的深度存储变革。
当算力竞争进入白热化阶段,曾经处于后台的“存力”正稳步走向基础设施舞台的中央。能否突破存储性能与架构的瓶颈,不仅将决定下一代AI基础设施的竞争态势,更在根本上影响着中国人工智能产业创新的速度与高度。
来源:互联网
本网站新闻资讯均来自公开渠道,力求准确但不保证绝对无误,内容观点仅代表作者本人,与本站无关。若涉及侵权,请联系我们处理。本站保留对声明的修改权,最终解释权归本站所有。