芝能智芯出品
英伟达主导的800VDC高压直流架构,通过端到端原生直流路径,提升效率95%以上,减少铜缆用量157%,并集成多时间尺度储能平抑负载波动,到2030年,高功率PSU市场达115亿美元,CAGR超25%。
英伟达生态依赖广泛合作伙伴网络,覆盖硅片、电源组件至系统集成,确保互操作性和可扩展性。
● 芯片供应商包括:AOS、Analog Devices、Efficient Power Conversion、Infineon Technologies、Innoscience、MPS、Navitas、onsemi、Power Integrations、Renesas、Richtek、ROHM、STMicroelectronics、Texas Instruments,提供SiC/GaN高效器件。
● 电源系统组件伙伴:Bizlink、Delta、Flex、Lead Wealth、LITEON、Megmeet,优化高密度PDU和转换器。
● 数据中心电力系统巨头:ABB、Eaton、GE Vernova、Heron Power、Hitachi Energy、Mitsubishi Electric、Schneider Electric、Siemens、Vertiv,开发设施级HVDC和EcoStruxure平台,支持GW级部署。
Part 1 跟着英伟达走
早期的服务器数据中心主要处理分布式计算任务,工作负载相互独立,电力分配相对平稳,生成式 AI 模型带来了前所未有的同步性需求。
自 Hopper 架构到 Blackwell 架构的演进中,单 GPU 的功耗提升约 75%,而 NVLink 域内互联的 GPU 数量已扩展至 72 个,单机架的功率密度因此提升了 3.4 倍,超出了传统供电架构的物理承受范围。
过去每个机架约消耗 30 至 50 千瓦,如今新一代 AI 机架的功耗已超过 100 千瓦,部分集群甚至逼近兆瓦级。
当前行业仍主要依赖 54V 直流或 415V 交流的低压供电体系,必须使用大量铜缆,也造成了空间浪费与经济不可行性。
铜导体截面必须增厚以应对电阻与发热问题,增加了重量、安装难度和成本。
功率密度成为新的“天花板”,不再是芯片性能或冷却系统的约束,而是电力输送的限制。
另一个更隐蔽但更具破坏力的挑战来自于同步波动。传统数据中心运行成千上万的独立进程,功率需求在时间上是平滑的, AI 工厂中,成百上千个 GPU 以极高的同步性执行矩阵运算与数据交换,功率负载在毫秒级别剧烈波动。
大模型训练中,GPU 负载会从 30% 的空闲状态迅速飙升至 100%,随后再在几毫秒内回落,周期性的波动会传导至整个供电网络,迫使电源系统必须“超额设计”以适应峰值负载。
工程师们不得不选用额定功率远高于平均需求的变压器、母线和稳压模块,从而造成资源浪费与系统过度膨胀。
NVIDIA、微软与 OpenAI 的联合研究表明,在规模超过数千 GPU 的训练设施中,功率波动幅度可达到数百兆瓦级,对当地电网造成明显干扰。
电力供应商不得不介入协调,甚至需要建立临时储能设备以平衡负载,这使得电力稳定性成为 AI 发展的最大瓶颈之一。
传统供电体系的“稳态假设”已经失效。AI 的同步性特征要求电力系统具备快速响应与动态调节能力,而这恰恰是当前架构的短板。
Part 2 800V直流架构与储能集成
行业开始重新定义数据中心的供电系统,解决方案是一种全新的设计:在设施层面引入 800V 直流配电,并与多时间尺度储能系统深度集成。
提升电压,是提高功率传输效率最直接的方式。
与传统 415V 交流系统相比,800V 直流架构可以以相同线规承载超过 150% 的功率,从而显著减少铜缆使用量和配线复杂度。三线制(正极、负极、接地)替代四线制的交流布线,不仅节省材料,也简化了安装与维护流程。
800V 直流能够支持端到端的一体化设计。
电力在设施层面由交流转直流,仅经历一次变换,随后直接输送至机架。机架内部仅需一次高效的降压转换(如 64:1 LLC 转换),即可为 GPU 节点提供稳定的 12V 电压。
这种简化的电源路径将系统效率从过去的不足 90% 提升到接近 96%,并显著降低废热。
直流系统还减少了对相位平衡设备和变压器的依赖,使架构更简单、更可靠。由于电动汽车和光伏发电早已广泛使用 800V 及以上直流系统,其产业链和安全标准已相对成熟,数据中心可以直接借鉴这些经验,加快落地进程。
NVIDIA 最新推出的 Kyber 机架架构,将 800V 直流直接分配至各节点,通过单级转换实现更高的空间利用率和能源效率。
测试结果显示,机架体积减少 26%,能耗降低约 8%,同时支持超过每机架 1MW 的持续负载能力。高压直流只能解决功率密度问题,无法应对工作负载的波动性。
要稳定整个系统,储能必须从“备用电源”转变为电力架构的活跃组成部分。
储能的设计逻辑是“时间分层”。
◎短时波动(毫秒到秒级)由机架级的超级电容或高功率电容吸收,它们响应速度极快,可在瞬间抵消 GPU 峰值电流的冲击。
◎中长期波动(秒到分钟级)则由设施级电池储能系统(BESS)承担,负责平滑集群启动、负载迁移或供电切换过程中的能量波动。多层储能结构的关键在于深度集成。
由于 800V 直流提供了统一的高压直流母线,储能系统可以在最合适的电压节点上接入,从而实现最小化的能量转换路径。与传统交流储能相比,这种方式减少了多级逆变器损耗,也降低了系统复杂性。
通过储能的“低通滤波”效应,AI 计算的瞬态功率波动被隔离在本地,不再传导至电网层级,减轻了对公用电网的冲击,也为未来更大规模的 AI 工厂提供了稳定的扩展基础。
要实现 800V 架构的全面落地,产业链需要在连接器接口、通用电压范围、安全规范等方面建立统一标准。开放计算项目(OCP)已成为这一进程的重要平台,汇聚了电力电子、服务器、GPU 厂商以及系统集成商的共同努力。
NVIDIA 目前正与 ABB、西门子、施耐德电气、台达电子、英飞凌、意法半导体等合作伙伴联合制定相关标准,并推动组件生态体系成熟,使高压直流系统从实验性方案逐步走向工程化与量产化。
预计到 2030 年,数据中心电源市场规模将超过 140 亿美元,其中高功率 PSU(>3kW)增速最快,年复合增长率超过 25%。这不仅意味着电源模块本身的变革,也带动了宽禁带半导体(SiC、GaN)的普及率上升至 24%。
这些材料能够支持更高电压、更高效率的转换,为 800V 架构提供了关键技术支撑。
小结
800V 直流配电与多时间尺度储能的结合,带动了数据中心电源的变化,GPU 集群规模持续扩大,AI 工厂将成是高性能计算中心,也是智能电网节点。
原文标题 : 英伟达数据中心电源合作伙伴,构建800V直流架构
芝能智芯出品
英伟达主导的800VDC高压直流架构,通过端到端原生直流路径,提升效率95%以上,减少铜缆用量157%,并集成多时间尺度储能平抑负载波动,到2030年,高功率PSU市场达115亿美元,CAGR超25%。
英伟达生态依赖广泛合作伙伴网络,覆盖硅片、电源组件至系统集成,确保互操作性和可扩展性。
● 芯片供应商包括:AOS、Analog Devices、Efficient Power Conversion、Infineon Technologies、Innoscience、MPS、Navitas、onsemi、Power Integrations、Renesas、Richtek、ROHM、STMicroelectronics、Texas Instruments,提供SiC/GaN高效器件。
● 电源系统组件伙伴:Bizlink、Delta、Flex、Lead Wealth、LITEON、Megmeet,优化高密度PDU和转换器。
● 数据中心电力系统巨头:ABB、Eaton、GE Vernova、Heron Power、Hitachi Energy、Mitsubishi Electric、Schneider Electric、Siemens、Vertiv,开发设施级HVDC和EcoStruxure平台,支持GW级部署。
Part 1 跟着英伟达走
早期的服务器数据中心主要处理分布式计算任务,工作负载相互独立,电力分配相对平稳,生成式 AI 模型带来了前所未有的同步性需求。
自 Hopper 架构到 Blackwell 架构的演进中,单 GPU 的功耗提升约 75%,而 NVLink 域内互联的 GPU 数量已扩展至 72 个,单机架的功率密度因此提升了 3.4 倍,超出了传统供电架构的物理承受范围。
过去每个机架约消耗 30 至 50 千瓦,如今新一代 AI 机架的功耗已超过 100 千瓦,部分集群甚至逼近兆瓦级。
当前行业仍主要依赖 54V 直流或 415V 交流的低压供电体系,必须使用大量铜缆,也造成了空间浪费与经济不可行性。
铜导体截面必须增厚以应对电阻与发热问题,增加了重量、安装难度和成本。
功率密度成为新的“天花板”,不再是芯片性能或冷却系统的约束,而是电力输送的限制。
另一个更隐蔽但更具破坏力的挑战来自于同步波动。传统数据中心运行成千上万的独立进程,功率需求在时间上是平滑的, AI 工厂中,成百上千个 GPU 以极高的同步性执行矩阵运算与数据交换,功率负载在毫秒级别剧烈波动。
大模型训练中,GPU 负载会从 30% 的空闲状态迅速飙升至 100%,随后再在几毫秒内回落,周期性的波动会传导至整个供电网络,迫使电源系统必须“超额设计”以适应峰值负载。
工程师们不得不选用额定功率远高于平均需求的变压器、母线和稳压模块,从而造成资源浪费与系统过度膨胀。
NVIDIA、微软与 OpenAI 的联合研究表明,在规模超过数千 GPU 的训练设施中,功率波动幅度可达到数百兆瓦级,对当地电网造成明显干扰。
电力供应商不得不介入协调,甚至需要建立临时储能设备以平衡负载,这使得电力稳定性成为 AI 发展的最大瓶颈之一。
传统供电体系的“稳态假设”已经失效。AI 的同步性特征要求电力系统具备快速响应与动态调节能力,而这恰恰是当前架构的短板。
Part 2 800V直流架构与储能集成
行业开始重新定义数据中心的供电系统,解决方案是一种全新的设计:在设施层面引入 800V 直流配电,并与多时间尺度储能系统深度集成。
提升电压,是提高功率传输效率最直接的方式。
与传统 415V 交流系统相比,800V 直流架构可以以相同线规承载超过 150% 的功率,从而显著减少铜缆使用量和配线复杂度。三线制(正极、负极、接地)替代四线制的交流布线,不仅节省材料,也简化了安装与维护流程。
800V 直流能够支持端到端的一体化设计。
电力在设施层面由交流转直流,仅经历一次变换,随后直接输送至机架。机架内部仅需一次高效的降压转换(如 64:1 LLC 转换),即可为 GPU 节点提供稳定的 12V 电压。
这种简化的电源路径将系统效率从过去的不足 90% 提升到接近 96%,并显著降低废热。
直流系统还减少了对相位平衡设备和变压器的依赖,使架构更简单、更可靠。由于电动汽车和光伏发电早已广泛使用 800V 及以上直流系统,其产业链和安全标准已相对成熟,数据中心可以直接借鉴这些经验,加快落地进程。
NVIDIA 最新推出的 Kyber 机架架构,将 800V 直流直接分配至各节点,通过单级转换实现更高的空间利用率和能源效率。
测试结果显示,机架体积减少 26%,能耗降低约 8%,同时支持超过每机架 1MW 的持续负载能力。高压直流只能解决功率密度问题,无法应对工作负载的波动性。
要稳定整个系统,储能必须从“备用电源”转变为电力架构的活跃组成部分。
储能的设计逻辑是“时间分层”。
◎短时波动(毫秒到秒级)由机架级的超级电容或高功率电容吸收,它们响应速度极快,可在瞬间抵消 GPU 峰值电流的冲击。
◎中长期波动(秒到分钟级)则由设施级电池储能系统(BESS)承担,负责平滑集群启动、负载迁移或供电切换过程中的能量波动。多层储能结构的关键在于深度集成。
由于 800V 直流提供了统一的高压直流母线,储能系统可以在最合适的电压节点上接入,从而实现最小化的能量转换路径。与传统交流储能相比,这种方式减少了多级逆变器损耗,也降低了系统复杂性。
通过储能的“低通滤波”效应,AI 计算的瞬态功率波动被隔离在本地,不再传导至电网层级,减轻了对公用电网的冲击,也为未来更大规模的 AI 工厂提供了稳定的扩展基础。
要实现 800V 架构的全面落地,产业链需要在连接器接口、通用电压范围、安全规范等方面建立统一标准。开放计算项目(OCP)已成为这一进程的重要平台,汇聚了电力电子、服务器、GPU 厂商以及系统集成商的共同努力。
NVIDIA 目前正与 ABB、西门子、施耐德电气、台达电子、英飞凌、意法半导体等合作伙伴联合制定相关标准,并推动组件生态体系成熟,使高压直流系统从实验性方案逐步走向工程化与量产化。
预计到 2030 年,数据中心电源市场规模将超过 140 亿美元,其中高功率 PSU(>3kW)增速最快,年复合增长率超过 25%。这不仅意味着电源模块本身的变革,也带动了宽禁带半导体(SiC、GaN)的普及率上升至 24%。
这些材料能够支持更高电压、更高效率的转换,为 800V 架构提供了关键技术支撑。
小结
800V 直流配电与多时间尺度储能的结合,带动了数据中心电源的变化,GPU 集群规模持续扩大,AI 工厂将成是高性能计算中心,也是智能电网节点。
原文标题 : 英伟达数据中心电源合作伙伴,构建800V直流架构