热设计网

AI芯片液冷全梳理

热设计网

image.png

1、芯片级液冷成主流散热方案

1)机柜功率超过15kW,风冷已趋于能力天花板;

2)IDC中心PUE监管趋严,要求至1.25/1.2以下;

3)冷板式已较多应用,浸没式将成主流方案。


2、AI服务器散热投入明显增长

1)单KW功耗散热投入增至4倍:

风冷成本约3000元/kw,冷板式液冷约4000元/kw,浸没式液冷约12000元/kw。

2)服务器成本占比提升至2.5-3倍:

单台普通服务器功耗约400w,售价约6万,风冷散热价值量约1200元,占比约2%。

AI服务器以浪潮NF5468M6为例,包括2颗intel lce Lake处理器和8颗NVIDIA A800 GPU ,功耗约4kw,售价约88万;支持配置液冷,浸没式液冷价值量4.8万元,占比约5.5%。


3、AI芯片液冷产业进入放量期

匡算AI服务器芯片级液冷2025年全球、中国市场规模223-333亿元、72-108亿元。

匡算通用服务器芯片级液冷2027年全球乐观702-941亿元、国内乐观203-272亿元。


4、温控液冷的四大认知差

认知差一:政策没有明确支持?

近日工信部表示,到2025年底单位电信业务总量能耗下降幅度需达到15%、新建大型/超大型数据中心PUE值需低于1.3;如要满足高能耗算力需求,液冷将成为新建数据中心的必须选项。

认知差二:产业需求不是刚需?

AI算力需求提升大幅带动服务器能耗走高,未来AI集群算力密度预计将达到40+kw/柜。机柜功率大于15kw后,液冷方案性价比凸显;机柜功率大于20kw后,液冷方案成为唯一解决方案。预计2025年浸没式液冷数据中心渗透率有望达到40%以上。

认知差三:行业门槛低竞争格局差?

当液冷成为主流解决方案后,其安全性将形成极强的技术壁垒。作为底层算力核心配套设施,液冷解决方案的安全可靠,不仅决定能耗多少,同时亦决定了相关算力集群的安全稳定程度。行业领先厂商的先发优势将形成极大的后续成长壁垒,下游厂商跑马圈地阶段试错成本极高。

认知差四:相关公司业绩缺乏弹性?

预计2025年AI服务器芯片级液冷全球市场空间将达到300亿元、通用服务器芯片级液冷市场空间将达到800亿元,较2022年市场规模成几何级增长。随着AI服务器的快速放量,解决方案将从“风冷-水冷-液冷板-浸没式”不断升级,产品价值量也将逐步攀升,预计浸没式解决方案AI服务器成本占比将达到近6%。


image.png

5、相关上市公司

英维克:21年公司全链条液冷解决方案已实现单机柜200kW批量交付,截至23年3月已经完成总计500兆瓦液冷项目交付;为超聚变等提供全链条液冷解决方案。

高澜股份:22年三季报合同负债0.87亿较2021年底增109%,主要系服务器液冷产品预收款增加所致;已与国产GPU企业芯动科技达成战略合作;已与国内大型互联网公司形成合作关系。

申菱环境:液冷解决方案已应用于超算中心和互联网数据中心,募投项目建成后能够进一步扩大数据中心液冷机组的产能。

网宿科技:下属绿色云图研发的 DLC 直接浸没式液冷技术已进入商用阶段,与戴尔科技集团聚焦浸没式液冷技术展开战略合作。

飞龙股份:电子水泵技术国内领先,应用场景从汽车向服务器等领域拓展,28日公告电子水泵系列产品和热管理系统产品中标某客户服务器系统、车载系统及充电桩等多个项目。


标签: 点击: 评论:

留言与评论(共有 0 条评论)
   
验证码: