GTC 2026|英伟达正在把整个世界变成 AI 算力网络

智车科技

11小时前

配套的OmniverseAIFactoryBlueprint则通过数字孪生技术,允许在虚拟环境中提前模拟整个数据中心的运行状态——功耗分布、GPU负载调度、网络瓶颈——在建设之前就完成优化。

芝能智芯出品

2026 年 3 月,NVIDIAGTC 在美国圣何塞 SAP Center 开幕。

这场大会过去几年已经从一个 GPU技术会议,演变为全球 AI 产业的年度风向标。Hopper、Blackwell,每一次架构发布几乎都会重新定义 AI 计算的产业格局。今年发布的,是英伟达下一代计算平台 Vera Rubin。

黄仁勋完整展示了英伟达未来三年的 AI 技术路线:从下一代芯片架构,到"AI 工厂"基础设施,再到物理世界中的机器人、自动驾驶,甚至延伸到太空计算。

Part 1算力跃迁——Vera Rubin 与 AI 工厂

● Vera Rubin:不是一颗芯片,是一套系统

本次 GTC 最重要的发布,是英伟达下一代 AI 平台 Vera Rubin。

理解这个发布,需要先纠正一个直觉:Vera Rubin 不是一颗 GPU,而是一整套计算系统架构——包含 Vera CPU、Rubin GPU、BlueField-4 DPU、NVLink 互联网络、光子以太网,以及 HBM4 高带宽内存

每一个环节都是英伟达自研或深度整合的,整体设计逻辑是让计算、存储、网络在系统层面协同优化,而不是各自为政。

相比 Blackwell Ultra,Vera Rubin 平台的 AI 推理性能将实现数倍提升,计算密度进一步提高,每 token 推理成本也将显著下降。预计 2026 年下半年量产。单靠 GPU 算力的堆叠,已经越来越难以解决 AI 计算的瓶颈。

真正的限制往往来自内存带宽、互联延迟、以及计算与存储之间的协调效率。Vera Rubin 的设计,正是针对这些瓶颈的系统级回应。

● NVL144:一个机架就是一台超算

在机架级部署上,英伟达推出了 NVL144 系统,可以在单个机架内集成 144 个 Rubin GPU 与 Vera CPU 节点。整体推理性能达到 3.6 ExaFLOPS 级别。2012 年全球最快的超级计算机Titan,峰值算力约为 27 PetaFLOPS。NVL144 的推理算力,超过了 100 台 Titan 叠加在一起。

当然,浮点运算精度的定义不同,这个对比并不严格,但它仍然说明了一件事:AI 计算的密度正在进入一个从前只有国家级超算才能触及的规模区间,而现在一个标准机架就能实现。

● AI 工厂:数据中心的定义被重写

黄仁勋反复使用"AI Factory"这个词,这是一个重新定义数据中心功能的概念框架。

传统数据中心的核心功能是存储数据、运行软件。而 AI 工厂的核心功能是生产 token——训练和推理模型,持续输出计算结果。

计算能力在这个框架下变成了一种类似电力的工业资源,可以被量化、被售卖、被按需调度。

围绕这一概念,英伟达推出了 DSX AI Factory 参考架构,提供从服务器设计、网络拓扑到电力散热的完整数据中心方案。

配套的 Omniverse AI Factory Blueprint 则通过数字孪生技术,允许在虚拟环境中提前模拟整个数据中心的运行状态——功耗分布、GPU 负载调度、网络瓶颈——在建设之前就完成优化。

这是一种工业设计的思维方式:像设计汽车或芯片一样设计数据中心。

● 从训练到推理:算力需求的结构性转移

是 AI 产业正在从训练时代进入推理时代,过去几年,绝大多数 AI 算力消耗在训练大模型上。

但随着模型能力趋于稳定,未来的计算增量将更多来自推理——也就是把模型部署到真实世界中,为 AI 搜索、AI 助手、自动驾驶、企业代理持续提供服务。

推理与训练的需求特征完全不同:低延迟、高并发、长时间运行。

英伟达发布了 Groq 3 LPX 系统,结合 Rubin 架构 GPU 与专用推理处理器,目标是实现每秒 700M tokens 的吞吐能力,相比上一代架构提升超过 350 倍。

训练是建造工厂,推理是开动生产线。英伟达这次 GTC,重心已经从前者转向后者。

Part 2AI 走进物理世界

● 自动驾驶:从软件到钢铁的跨越

加入英伟达自动驾驶生态的车企包括比亚迪、吉利、现代、日产,覆盖了中日韩三大汽车工业体系——自动驾驶的"英伟达化"正在从软件渗透进整车供应链。

英伟达在自动驾驶领域的核心价值不是摄像头或雷达,而是仿真体系。通过 Omniverse 平台构建的虚拟驾驶环境,可以生成数以亿计的训练场景,覆盖真实道路上极难遇到的长尾情况。

这是一套用算力换安全边际的逻辑,而英伟达正是这套逻辑的基础设施提供者。

● 机器人:Physical AI Data Factory

机器人是本次 GTC 篇幅最长的物理 AI 场景之一。

ABB、KUKA、Universal Robots 等工业机器人厂商宣布加入英伟达生态,而背后的基础设施是英伟达发布的 Physical AI Data Factory——专门用于训练机器人视觉和控制模型的数据生产体系。

这套体系解决的是机器人 AI 训练中最棘手的问题:真实世界数据太稀缺,且难以覆盖所有工况。

通过数字孪生环境大规模合成训练数据,可以显著降低机器人进入新场景的开发成本。这与自动驾驶的逻辑如出一辙——英伟达在用同一套基础设施框架,打通从驾驶到制造的物理 AI 版图。

● DLSS 5:神经渲染重写图形学

英伟达此次也没有忽视传统优势领域。

DLSS 5 引入了神经渲染(Neural Rendering)概念,将 AI 模型直接引入图像生成流程,用于处理人物面部纹理、头发细节、布料材质等传统光栅化管线难以高效渲染的内容。

传统游戏渲染的流程是几何rarr;光照rarr;材质rarr;像素,每一步都是确定性的数学计算。而神经渲染允许 AI 在这个流程中直接参与生成,以更低的算力代价输出更高质量的画面。

英伟达将其定位为自实时光线追踪以来图形学最大的一次技术跃迁,预计 2026 年秋季正式推出。

● 太空计算:轨道数据中心

英伟达展示了 Space-1 Vera Rubin Module——一个将 AI 计算部署到轨道数据中心的计划,通过太阳能供电实现高性能 AI 计算,并与地面保持低延迟通信。

这个方向目前仍处于早期,但其逻辑值得关注:随着 AI 对算力的需求持续增长,地面数据中心在土地、电力、散热上的限制将日益明显,而轨道计算提供了一种从物理约束中突破的可能性。

英伟达选择在 GTC 上提出这个方向,更多是在宣示边界——AI 基础设施的版图,不止于地球表面。

Part 3英伟达在赌什么

● 从 GPU 公司到 AI 操作系统

如果回顾英伟达过去十年的战略演进,可以看到一条非常清晰的路径:GPU 计算rarr;AI 训练平台rarr;AI 基础设施rarr;AI 操作系统。每一次升级,英伟达都在向更高的软件层移动,同时把更多的硬件能力纳入自己的生态控制范围。

CUDA 是这个战略的起点,它让英伟达的 GPU 成为 AI 研究的事实标准。

NVLink 和 InfiniBand 是下一步,它让多 GPU 系统的组织方式进入英伟达的设计管辖。

Vera Rubin 是这条路线的最新延伸:CPU、GPU、DPU、互联网络,全部自研或深度整合,整个计算系统成为英伟达可以定义和优化的对象。

"It all starts here." 这句话的含义比听起来更深:英伟达正在把自己定义为 AI 时代的计算原点,而不只是供应商。

2025 至 2027 年,AI 硬件市场规模将达到 1 万亿美元,而英伟达预计将在 Blackwell 和 Rubin 平台上拿下其中相当大的份额。

这个数字是否成立,取决于几个前提:AI 推理需求是否真如预期爆发,数据中心资本支出是否持续增加,以及英伟达的市场份额能否在竞争中守住。

目前英伟达的 AI 生态已经覆盖 AWS、Google Cloud、Microsoft、Oracle 等主要云厂商,以及自动驾驶、医疗、机器人、制造等垂直行业。但这个生态的稳定性,正在被越来越多的挑战者测试。

● 竞争格局:沉默的对手们

本次 GTC,英伟达的竞争对手们保持了相对低调。但这并不意味着威胁在消退。

◎ AMDMI400 系列正在向英伟达的高端推理市场发起进攻,在某些特定工作负载上已经具备竞争力。

◎ Google 的 TPU v5 和 AWS Trainium 2 则代表了另一条路线——超大规模云厂商正在用自研芯片替代外购 GPU,从英伟达的最大客户逐渐变成潜在的竞争者。

这种"既是买家又是对手"的结构性矛盾,是英伟达未来几年最难处理的战略问题之一。

Vera Rubin 平台的核心硬件之一是 HBM4 高带宽内存,而这个市场目前由三家公司控制:SK 海力士、三星、美光。

HBM 的供应能力直接决定了 AI 芯片的产能天花板。过去两年 Blackwell 的供货紧张,部分原因正是 HBM 产能的制约。随着 Vera Rubin 量产,这场围绕高带宽内存的供应链博弈将进一步加剧。

谁能在 HBM4 上率先实现大规模量产,将直接影响英伟达乃至整个 AI 算力市场的爬坡速度。这是 GTC 台上没有被提及,但台下最多人在谈的话题。

小结

GTC 每年都在用新的词汇描述一个更大的野心。从 GPU 到加速计算,从加速计算到 AI 工厂,从 AI 工厂到物理 AI,再到轨道数据中心,每一次扩张,英伟达都在把"计算"这个词的边界往外推。

原文标题 : GTC 2026|英伟达正在把整个世界变成 AI 算力网络

配套的OmniverseAIFactoryBlueprint则通过数字孪生技术,允许在虚拟环境中提前模拟整个数据中心的运行状态——功耗分布、GPU负载调度、网络瓶颈——在建设之前就完成优化。

芝能智芯出品

2026 年 3 月,NVIDIAGTC 在美国圣何塞 SAP Center 开幕。

这场大会过去几年已经从一个 GPU技术会议,演变为全球 AI 产业的年度风向标。Hopper、Blackwell,每一次架构发布几乎都会重新定义 AI 计算的产业格局。今年发布的,是英伟达下一代计算平台 Vera Rubin。

黄仁勋完整展示了英伟达未来三年的 AI 技术路线:从下一代芯片架构,到"AI 工厂"基础设施,再到物理世界中的机器人、自动驾驶,甚至延伸到太空计算。

Part 1算力跃迁——Vera Rubin 与 AI 工厂

● Vera Rubin:不是一颗芯片,是一套系统

本次 GTC 最重要的发布,是英伟达下一代 AI 平台 Vera Rubin。

理解这个发布,需要先纠正一个直觉:Vera Rubin 不是一颗 GPU,而是一整套计算系统架构——包含 Vera CPU、Rubin GPU、BlueField-4 DPU、NVLink 互联网络、光子以太网,以及 HBM4 高带宽内存

每一个环节都是英伟达自研或深度整合的,整体设计逻辑是让计算、存储、网络在系统层面协同优化,而不是各自为政。

相比 Blackwell Ultra,Vera Rubin 平台的 AI 推理性能将实现数倍提升,计算密度进一步提高,每 token 推理成本也将显著下降。预计 2026 年下半年量产。单靠 GPU 算力的堆叠,已经越来越难以解决 AI 计算的瓶颈。

真正的限制往往来自内存带宽、互联延迟、以及计算与存储之间的协调效率。Vera Rubin 的设计,正是针对这些瓶颈的系统级回应。

● NVL144:一个机架就是一台超算

在机架级部署上,英伟达推出了 NVL144 系统,可以在单个机架内集成 144 个 Rubin GPU 与 Vera CPU 节点。整体推理性能达到 3.6 ExaFLOPS 级别。2012 年全球最快的超级计算机Titan,峰值算力约为 27 PetaFLOPS。NVL144 的推理算力,超过了 100 台 Titan 叠加在一起。

当然,浮点运算精度的定义不同,这个对比并不严格,但它仍然说明了一件事:AI 计算的密度正在进入一个从前只有国家级超算才能触及的规模区间,而现在一个标准机架就能实现。

● AI 工厂:数据中心的定义被重写

黄仁勋反复使用"AI Factory"这个词,这是一个重新定义数据中心功能的概念框架。

传统数据中心的核心功能是存储数据、运行软件。而 AI 工厂的核心功能是生产 token——训练和推理模型,持续输出计算结果。

计算能力在这个框架下变成了一种类似电力的工业资源,可以被量化、被售卖、被按需调度。

围绕这一概念,英伟达推出了 DSX AI Factory 参考架构,提供从服务器设计、网络拓扑到电力散热的完整数据中心方案。

配套的 Omniverse AI Factory Blueprint 则通过数字孪生技术,允许在虚拟环境中提前模拟整个数据中心的运行状态——功耗分布、GPU 负载调度、网络瓶颈——在建设之前就完成优化。

这是一种工业设计的思维方式:像设计汽车或芯片一样设计数据中心。

● 从训练到推理:算力需求的结构性转移

是 AI 产业正在从训练时代进入推理时代,过去几年,绝大多数 AI 算力消耗在训练大模型上。

但随着模型能力趋于稳定,未来的计算增量将更多来自推理——也就是把模型部署到真实世界中,为 AI 搜索、AI 助手、自动驾驶、企业代理持续提供服务。

推理与训练的需求特征完全不同:低延迟、高并发、长时间运行。

英伟达发布了 Groq 3 LPX 系统,结合 Rubin 架构 GPU 与专用推理处理器,目标是实现每秒 700M tokens 的吞吐能力,相比上一代架构提升超过 350 倍。

训练是建造工厂,推理是开动生产线。英伟达这次 GTC,重心已经从前者转向后者。

Part 2AI 走进物理世界

● 自动驾驶:从软件到钢铁的跨越

加入英伟达自动驾驶生态的车企包括比亚迪、吉利、现代、日产,覆盖了中日韩三大汽车工业体系——自动驾驶的"英伟达化"正在从软件渗透进整车供应链。

英伟达在自动驾驶领域的核心价值不是摄像头或雷达,而是仿真体系。通过 Omniverse 平台构建的虚拟驾驶环境,可以生成数以亿计的训练场景,覆盖真实道路上极难遇到的长尾情况。

这是一套用算力换安全边际的逻辑,而英伟达正是这套逻辑的基础设施提供者。

● 机器人:Physical AI Data Factory

机器人是本次 GTC 篇幅最长的物理 AI 场景之一。

ABB、KUKA、Universal Robots 等工业机器人厂商宣布加入英伟达生态,而背后的基础设施是英伟达发布的 Physical AI Data Factory——专门用于训练机器人视觉和控制模型的数据生产体系。

这套体系解决的是机器人 AI 训练中最棘手的问题:真实世界数据太稀缺,且难以覆盖所有工况。

通过数字孪生环境大规模合成训练数据,可以显著降低机器人进入新场景的开发成本。这与自动驾驶的逻辑如出一辙——英伟达在用同一套基础设施框架,打通从驾驶到制造的物理 AI 版图。

● DLSS 5:神经渲染重写图形学

英伟达此次也没有忽视传统优势领域。

DLSS 5 引入了神经渲染(Neural Rendering)概念,将 AI 模型直接引入图像生成流程,用于处理人物面部纹理、头发细节、布料材质等传统光栅化管线难以高效渲染的内容。

传统游戏渲染的流程是几何rarr;光照rarr;材质rarr;像素,每一步都是确定性的数学计算。而神经渲染允许 AI 在这个流程中直接参与生成,以更低的算力代价输出更高质量的画面。

英伟达将其定位为自实时光线追踪以来图形学最大的一次技术跃迁,预计 2026 年秋季正式推出。

● 太空计算:轨道数据中心

英伟达展示了 Space-1 Vera Rubin Module——一个将 AI 计算部署到轨道数据中心的计划,通过太阳能供电实现高性能 AI 计算,并与地面保持低延迟通信。

这个方向目前仍处于早期,但其逻辑值得关注:随着 AI 对算力的需求持续增长,地面数据中心在土地、电力、散热上的限制将日益明显,而轨道计算提供了一种从物理约束中突破的可能性。

英伟达选择在 GTC 上提出这个方向,更多是在宣示边界——AI 基础设施的版图,不止于地球表面。

Part 3英伟达在赌什么

● 从 GPU 公司到 AI 操作系统

如果回顾英伟达过去十年的战略演进,可以看到一条非常清晰的路径:GPU 计算rarr;AI 训练平台rarr;AI 基础设施rarr;AI 操作系统。每一次升级,英伟达都在向更高的软件层移动,同时把更多的硬件能力纳入自己的生态控制范围。

CUDA 是这个战略的起点,它让英伟达的 GPU 成为 AI 研究的事实标准。

NVLink 和 InfiniBand 是下一步,它让多 GPU 系统的组织方式进入英伟达的设计管辖。

Vera Rubin 是这条路线的最新延伸:CPU、GPU、DPU、互联网络,全部自研或深度整合,整个计算系统成为英伟达可以定义和优化的对象。

"It all starts here." 这句话的含义比听起来更深:英伟达正在把自己定义为 AI 时代的计算原点,而不只是供应商。

2025 至 2027 年,AI 硬件市场规模将达到 1 万亿美元,而英伟达预计将在 Blackwell 和 Rubin 平台上拿下其中相当大的份额。

这个数字是否成立,取决于几个前提:AI 推理需求是否真如预期爆发,数据中心资本支出是否持续增加,以及英伟达的市场份额能否在竞争中守住。

目前英伟达的 AI 生态已经覆盖 AWS、Google Cloud、Microsoft、Oracle 等主要云厂商,以及自动驾驶、医疗、机器人、制造等垂直行业。但这个生态的稳定性,正在被越来越多的挑战者测试。

● 竞争格局:沉默的对手们

本次 GTC,英伟达的竞争对手们保持了相对低调。但这并不意味着威胁在消退。

◎ AMDMI400 系列正在向英伟达的高端推理市场发起进攻,在某些特定工作负载上已经具备竞争力。

◎ Google 的 TPU v5 和 AWS Trainium 2 则代表了另一条路线——超大规模云厂商正在用自研芯片替代外购 GPU,从英伟达的最大客户逐渐变成潜在的竞争者。

这种"既是买家又是对手"的结构性矛盾,是英伟达未来几年最难处理的战略问题之一。

Vera Rubin 平台的核心硬件之一是 HBM4 高带宽内存,而这个市场目前由三家公司控制:SK 海力士、三星、美光。

HBM 的供应能力直接决定了 AI 芯片的产能天花板。过去两年 Blackwell 的供货紧张,部分原因正是 HBM 产能的制约。随着 Vera Rubin 量产,这场围绕高带宽内存的供应链博弈将进一步加剧。

谁能在 HBM4 上率先实现大规模量产,将直接影响英伟达乃至整个 AI 算力市场的爬坡速度。这是 GTC 台上没有被提及,但台下最多人在谈的话题。

小结

GTC 每年都在用新的词汇描述一个更大的野心。从 GPU 到加速计算,从加速计算到 AI 工厂,从 AI 工厂到物理 AI,再到轨道数据中心,每一次扩张,英伟达都在把"计算"这个词的边界往外推。

原文标题 : GTC 2026|英伟达正在把整个世界变成 AI 算力网络

展开
打开“财经头条”阅读更多精彩资讯
APP内打开