AI服务器能耗飙升,NVIDIA AI功耗激增百倍成能源黑洞八年间揭秘!

NVIDIA的AI服务器功耗在短短8年内激增了惊人的100倍,成为了一个巨大的“能源黑洞”,这一现象引发了人们对人工智能能耗问题的关注,并提醒我们需要在推动AI技术发展的同时,更加重视能源效率和可持续性。

10月16日资讯,随着人工智能产业的迅猛发展,对算力的需求呈现爆发式增长。无论是依托先进硬件技术,还是构建超大规模ai集群,各大企业正全力增强其ai运算实力。但与此同时,这一趋势也引发了前所未有的能源消耗挑战。

AI服务器能耗飙升,NVIDIA AI功耗激增百倍成能源黑洞八年间揭秘!

根据分析师Ray Wang提供的数据,NVIDIA的AI服务器平台在代际演进过程中,功耗显著攀升——从Ampere架构到Kyber架构,短短八年时间,整体功耗增长高达100倍。

AI成“能源黑洞”:NVIDIA AI服务器功耗8年激增100倍!

这种急剧上升的能耗主要源于两个方面:一是每机架部署的GPU数量持续增加,二是单个GPU的热设计功耗(TDP)不断提升。

以Hopper架构为例,其典型机架运行功率为10KW;而到了Blackwell架构,由于GPU密度大幅提升,单机架功耗已接近120KW。

除了GPU本身的升级,诸如新一代NVLink/NVSwitch互联架构、优化后的机架设计以及更高的持续利用率,也在推动超大规模数据中心整体能耗飞速上涨。

AI成“能源黑洞”:NVIDIA AI服务器功耗8年激增100倍!

当前,科技巨头之间正展开一场“AI机架规模”的激烈竞争,衡量计算实力的标准已不再仅仅是FLOPS,而是转向了“吉瓦(GW)”级别的电力消耗指标。包括OpenAI和Meta在内的多家公司,已规划在未来数年内新增超过10吉瓦的AI算力支持。

作为参照,1吉瓦的电力足以满足约100万个美国家庭的日常用电需求。如今,一些顶级AI数据中心的总能耗水平,已堪比一个中等国家或数个美国大州的用电总量。

此外,国际能源署(IEA)在其2025年发布的《能源与AI》研究报告中预测,到2030年,全球AI系统的能耗将翻一番,增速约为电网扩容速度的四倍。

AI成“能源黑洞”:NVIDIA AI服务器功耗8年激增100倍!

网友留言(0 条)

发表评论