液冷革命:智算中心迈入“兆瓦级时代”的必由之路
当单颗GPU芯片的功耗突破1000W当单机柜功率密度从传统的8kW飙升至900kW甚至触及“兆瓦级”MW人类对算力的极致追求正将传统的风冷散热技术推向物理极限。在AI大模型万卡集群竞速赛的背面一场关于“冷静”的技术革命正在悄然发生。液冷已从数据中心的“可选项”变为智算时代的“必选项”它不仅关乎散热更是决定算力上限、运营成本与“双碳”目标的“胜负手”。一、 激流勇进从风冷极限到液冷刚需过去二十年数据中心主要依赖“风扇空调”的风冷模式。然而随着英伟达B200功耗达到1000W下一代平台甚至触及3700W空气作为热传导介质的效率已捉襟见肘。在高密度的智算中心里风冷不仅能耗巨大甚至难以带走芯片表面瞬间产生的热浪。液冷技术的核心优势在于液体的比热容远高于空气能够实现更精准、高效的点对点散热。这不仅是技术升级更是政策导向下的必然选择。随着国家对新建数据中心PUE电能利用效率管控趋严液冷技术成为实现PUE低于1.2甚至逼近1.0的唯一可行路径。二、 流派之争冷板、浸没与喷淋目前液冷技术主要分为三大流派各有优劣适配不同的算力密度场景。1. 冷板式液冷当下的主流之选作为目前市场占有率最高的方案约80%冷板式液冷属于“间接接触”冷却。它通过将液冷板Cold Plate贴在CPU、GPU等主要热源上热量通过冷板内的微通道传递给冷却液再由CDU冷量分配单元带走。其优势在于对现有服务器架构改动小兼容性好且初期投资成本较低适用于10kW-150kW的单机柜场景。然而由于它不冷却主板上的所有元件依然需要风扇辅助散热并非“纯液冷”。2. 浸没式液冷终极的能效利器浸没式液冷代表着散热效率的极致。它将服务器主板直接“浸泡”在特制的绝缘冷却液中。根据液体是否沸腾又分为单相浸没和相变浸没。单相浸没依靠液体的显热换热而相变浸没则利用液体沸腾汽化带走热量的原理散热能力极为惊人。2026年曙光数创发布的全球首个MW级相变浸没液冷整机柜C8000 V3.0单机柜功率突破900kWPUE低至1.04机房面积节省超85%。这种技术不仅彻底摆脱了对风扇的依赖实现了超高密度部署还因为电子元件不与空气接触避免了氧化和腐蚀极大地提高了设备寿命。3. 喷淋式液冷精准的定向喷洒喷淋式介于前两者之间通过向芯片上方喷洒冷却液滴利用重力或低压实现换热。它不需要对服务器进行完全密封但在均匀度和流量控制上要求较高目前应用场景相对较少。三、 范式革命从“以服务器为中心”到“以基础设施为中心”随着液冷技术向“兆瓦级”演进行业发生了一场深刻的范式革命。过去基础设施是为了适应服务器现在液冷方案开始反向定义芯片与服务器的设计。1. 材料科学的突破金刚石铜的应用为了解决高热流密度下的导热瓶颈液冷系统开始引入新材料。例如在C8000 V3.0方案中首次规模化应用了金刚石铜导热材料其导热率提升80%助力芯片性能提升10%。这种“导热界面材料”的革新是液冷技术迈向深水区的关键。2. 高压直流与供电融合在高密度液冷环境中供电系统也必须随之进化。为了匹配AI算力的剧烈波动新一代液冷方案集成了高压直流供电技术系统效率超过96%能毫秒级响应负载变化避免因供电波动导致的算力闲置。3. 余热回收变废为宝液冷技术的另一大价值在于“余热回收”。由于液冷排出的水温较高通常在40℃-60℃通过热泵技术可以将其转化为稳定的热源用于冬季供暖或生活热水。这不仅降低了数据中心的碳足迹还能创造额外的能源收益。四、 成本与生态因地制宜与开放解耦尽管液冷优势明显但其高昂的初期投资和复杂的运维依然制约着普及速度。行业专家指出液冷技术需要“因地制宜”低功率场景10kW 风冷依然是成本最优解。中高功率场景10kW-150kW 冷板液冷的经济性最为突出。超算/AI训练场景200kW 相变浸没液冷的全生命周期成本TCO开始显现优势。此外“解耦” 成为产业规模化发展的关键词。过去液冷方案多为厂商“黑盒”整机柜交付导致生态封闭。当前产业界正在推动冷板式液冷解耦化统一流体连接器接口、冷却液标准让不同厂商的服务器与机柜可以互联互通从而降低采购成本和维护难度。开放生态的建立将加速液冷技术从“实验室的昂贵玩具”走向“数据中心的标准配置”。五、 结语智算中心的“兆瓦级时代”已经来临。无论是冷板的稳妥、浸没的极致还是未来的相变技术液冷已不再是单纯的散热手段而是支撑AI算力持续进化的“新基建”。随着国产冷却液、金刚石铜材料以及解耦标准的成熟中国液冷技术正从“跟跑”转向“领跑”在这场由热量引发的技术革命中冷静地掌控着狂飙的算力。延伸阅读 |液冷走向主流之后真正拉开差距的已经不只是散热效率而是系统可靠性。围绕这一点嘉实多热管理也持续关注高功率场景下的长期稳定运行问题值得继续往下看。Thermal Logic没有标准时液冷系统如何建立可靠性