芝能智芯出品
人工智能的快速扩张正在全面改变数据中心的电力架构,过去以CPU为核心的通用服务器,到如今以GPU/加速器为主导的AI服务器,负载特性、功率需求与散热方式均发生了根本性变化。
高达数千安培的电流、低至亚伏级的供电电压、数百千瓦的机架功率以及月级的迭代周期,使传统的配电与电源转换体系难以承载。
围绕这些变化,行业正从48V系统转向400V以上高压母线,采用宽禁带器件提升效率,引入垂直配电、IVR、IBC重构供电路径,并以液冷技术保证系统稳定性。
Part 1市场趋势与功耗结构的根本变化
以往数据中心的迭代周期约为30个月,如今以GPU训练为主的工作负载将这一周期缩短至12至15个月,意味着基础设施的改造与服务器升级几乎同时进行。
在算力密度方面,GPU与定制化加速器的功耗增长远超CPU,自2018年至今,GPU和TPU的功耗呈指数级增长,而CPU增长较为缓慢,提升了机架功率,也放大了配电网络的损耗压力。
GPU负载具有显著的持续大电流特征,供电电压需维持在约0.7V的低水平。
由于功率密度受制程演进而急剧提升,单位面积达到5至10W/mm²。一旦供电电压提升10mV,整体功耗便可能增加3%,电源模块必须在极窄的稳压范围内工作,同时保持高带宽与快速响应能力。
高性能计算系统的能耗已经逼近20MW,而超大规模数据中心正在规划更高功率的能源部署,包括数十兆瓦的小型模块化反应堆。
随着服务器从数百瓦演进至千瓦级别,AI机架的功率也从过去的20至30kW,提升至当前的70kW,并预计在2025年达到135kW,未来甚至可能迈向400至500kW区间。
大电流趋势也进一步放大PDN损耗。以典型PDN阻抗为例,若采用水平配电路径,1kA电流条件下的I²R损耗达到70W;2kA时更达到280W。
随着AI负载向3kA靠近,传统PDN的不可持续性愈加明显。因此行业逐渐向垂直PDN迁移,通过缩短路径和降低阻抗降低损耗。
在芯片级供电方面,高频集成电压调节器(IVR)成为关键趋势。
随着GPU与定制ASIC对动态响应速度、高带宽与低纹波的需求不断提升,IVR被直接集成至芯片底部封装,有时甚至通过3D封装直接构建多层供电结构。
在此背景下,IBC的转换比也需要从传统的4:1提高到10:1甚至更高,或采用更靠近SoC的双级转换架构以提高整体效率。
Part 2电力架构从AC到SoC的技术演进
面对不断增加的机架功率与瞬态负载,数据中心正从传统的48V配电模式向高压直流(HVDC)体系迁移,通常以400V直流为起点。
高压母线的优势在于大幅降低铜用量和配电损耗,通过高电压低电流模式显著减轻线路与母排压力,400V母线配合高效整流器时,系统整体效率可达到接近90%,远高于低压配电方案。
在进入机架后,高压母线经隔离式母线转换器降压至48V,以保持对现有硬件的兼容性。再由48V IBC进一步降至12V或更低电压,最终通过多相VR供电至CPU、ASIC或GPU核心。
为了达到高功率密度,AC-DC阶段广泛采用碳化硅与氮化镓器件。SiC常用于两电平拓扑以提升效率,而GaN适用于高频多电平拓扑以提高功率密度。
在板级供电方面,多相VR的电流能力提升显著。
行业预计未来五年AI芯片峰值电流将接近3kA,而CPU的增速虽低但同样持续增加。这样的大电流不仅要求多相VR具备更高的相数与带宽,也推动了垂直配电(VPD)方案的使用。VPD通过缩短供电路径减少PDN阻抗,从而降低损耗并提升响应速度。
IVR作为芯片级调压的关键节点同样在发生显著演变。
随着IVR下沉到SoC封装下方,其与IBC之间的关系需要重新定义。为了满足IVR的更高工作频率与宽带需求,IBC需提供更高的转换比与更低的纹波,同时尽可能缩小体积以适配紧凑的服务器布局。部分方案甚至采用双级IVR结构,在SoC附近实现最终调压以优化动态性能。
散热技术方面,传统风冷已无法支撑高达数百瓦的单卡热设计。
冷板虽能直接冷却GPU,但对VR与主板器件的冷却覆盖不足,因此两相浸没式液冷成为重点方向。该技术通过液体沸腾带走大量热量,使组件温度控制在60℃左右,同时降低服务器整体功耗5至15%,并支持超过50kW/机架的布局密度。
从整机架角度,AI服务器、电源模块、网络设备与存储系统均已形成统一电力架构。包括数字控制器、SiC/GaN功率器件、多相控制器、IBC转换模块、热插拔保护器件、DDR5 PMIC等关键环节共同构成了从AC到SoC的完整电力通路。
小结
AI正在推动数据中心从底层电源架构到上层计算模块的全面重构,关键趋势包括高压直流母线取代传统48V架构,大电流VR与垂直配电降低PDN损耗,高转换比IBC适配芯片级IVR,多级电源在封装内部深度整合,以及液冷技术在高密度服务器中的快速普及。
原文标题 : AI时代需要怎样的数据中心电力技术?
芝能智芯出品
人工智能的快速扩张正在全面改变数据中心的电力架构,过去以CPU为核心的通用服务器,到如今以GPU/加速器为主导的AI服务器,负载特性、功率需求与散热方式均发生了根本性变化。
高达数千安培的电流、低至亚伏级的供电电压、数百千瓦的机架功率以及月级的迭代周期,使传统的配电与电源转换体系难以承载。
围绕这些变化,行业正从48V系统转向400V以上高压母线,采用宽禁带器件提升效率,引入垂直配电、IVR、IBC重构供电路径,并以液冷技术保证系统稳定性。
Part 1市场趋势与功耗结构的根本变化
以往数据中心的迭代周期约为30个月,如今以GPU训练为主的工作负载将这一周期缩短至12至15个月,意味着基础设施的改造与服务器升级几乎同时进行。
在算力密度方面,GPU与定制化加速器的功耗增长远超CPU,自2018年至今,GPU和TPU的功耗呈指数级增长,而CPU增长较为缓慢,提升了机架功率,也放大了配电网络的损耗压力。
GPU负载具有显著的持续大电流特征,供电电压需维持在约0.7V的低水平。
由于功率密度受制程演进而急剧提升,单位面积达到5至10W/mm²。一旦供电电压提升10mV,整体功耗便可能增加3%,电源模块必须在极窄的稳压范围内工作,同时保持高带宽与快速响应能力。
高性能计算系统的能耗已经逼近20MW,而超大规模数据中心正在规划更高功率的能源部署,包括数十兆瓦的小型模块化反应堆。
随着服务器从数百瓦演进至千瓦级别,AI机架的功率也从过去的20至30kW,提升至当前的70kW,并预计在2025年达到135kW,未来甚至可能迈向400至500kW区间。
大电流趋势也进一步放大PDN损耗。以典型PDN阻抗为例,若采用水平配电路径,1kA电流条件下的I²R损耗达到70W;2kA时更达到280W。
随着AI负载向3kA靠近,传统PDN的不可持续性愈加明显。因此行业逐渐向垂直PDN迁移,通过缩短路径和降低阻抗降低损耗。
在芯片级供电方面,高频集成电压调节器(IVR)成为关键趋势。
随着GPU与定制ASIC对动态响应速度、高带宽与低纹波的需求不断提升,IVR被直接集成至芯片底部封装,有时甚至通过3D封装直接构建多层供电结构。
在此背景下,IBC的转换比也需要从传统的4:1提高到10:1甚至更高,或采用更靠近SoC的双级转换架构以提高整体效率。
Part 2电力架构从AC到SoC的技术演进
面对不断增加的机架功率与瞬态负载,数据中心正从传统的48V配电模式向高压直流(HVDC)体系迁移,通常以400V直流为起点。
高压母线的优势在于大幅降低铜用量和配电损耗,通过高电压低电流模式显著减轻线路与母排压力,400V母线配合高效整流器时,系统整体效率可达到接近90%,远高于低压配电方案。
在进入机架后,高压母线经隔离式母线转换器降压至48V,以保持对现有硬件的兼容性。再由48V IBC进一步降至12V或更低电压,最终通过多相VR供电至CPU、ASIC或GPU核心。
为了达到高功率密度,AC-DC阶段广泛采用碳化硅与氮化镓器件。SiC常用于两电平拓扑以提升效率,而GaN适用于高频多电平拓扑以提高功率密度。
在板级供电方面,多相VR的电流能力提升显著。
行业预计未来五年AI芯片峰值电流将接近3kA,而CPU的增速虽低但同样持续增加。这样的大电流不仅要求多相VR具备更高的相数与带宽,也推动了垂直配电(VPD)方案的使用。VPD通过缩短供电路径减少PDN阻抗,从而降低损耗并提升响应速度。
IVR作为芯片级调压的关键节点同样在发生显著演变。
随着IVR下沉到SoC封装下方,其与IBC之间的关系需要重新定义。为了满足IVR的更高工作频率与宽带需求,IBC需提供更高的转换比与更低的纹波,同时尽可能缩小体积以适配紧凑的服务器布局。部分方案甚至采用双级IVR结构,在SoC附近实现最终调压以优化动态性能。
散热技术方面,传统风冷已无法支撑高达数百瓦的单卡热设计。
冷板虽能直接冷却GPU,但对VR与主板器件的冷却覆盖不足,因此两相浸没式液冷成为重点方向。该技术通过液体沸腾带走大量热量,使组件温度控制在60℃左右,同时降低服务器整体功耗5至15%,并支持超过50kW/机架的布局密度。
从整机架角度,AI服务器、电源模块、网络设备与存储系统均已形成统一电力架构。包括数字控制器、SiC/GaN功率器件、多相控制器、IBC转换模块、热插拔保护器件、DDR5 PMIC等关键环节共同构成了从AC到SoC的完整电力通路。
小结
AI正在推动数据中心从底层电源架构到上层计算模块的全面重构,关键趋势包括高压直流母线取代传统48V架构,大电流VR与垂直配电降低PDN损耗,高转换比IBC适配芯片级IVR,多级电源在封装内部深度整合,以及液冷技术在高密度服务器中的快速普及。
原文标题 : AI时代需要怎样的数据中心电力技术?