这家总部位于加州圣克拉拉的公司正努力保持其作为 AI 加速器龙头制造商的优势地位。AI 加速器是数据中心运营商用于开发和运行AI模型的核心芯片。
华尔街部分观点担忧英伟达面临的竞争正在加剧,且 AI 支出可能难以维持当前增速。数据中心运营商也在自主研发 AI 加速器,但英伟达长期看好市场规模将达万亿美元级别。
Rubin 加速器
据公司介绍,Rubin 是最新一代加速器,其 AI 训练性能较前代 Blackwell 提升 3.5倍,运行效率提高 5倍。新款中央处理器拥有 88个核心计算单元,性能达到被替代型号的两倍。
与往年相比,英伟达今年更早公布了新产品细节,旨在持续引领行业对其硬件的需求——这些硬件正是 AI 应用爆发的技术基石。公司通常选择在加州圣何塞春季 GTC 大会上披露产品详情。
在推介新品的同时,英伟达强调前代产品仍保持良好表现。公司还注意到中国客户对 H200 芯片的强烈需求,这款芯片此前已被纳入美国政府考虑允许对华出口的清单。
首席财务官科莱特·克雷斯向分析师表示,相关许可申请已提交,美政府正在审议中。她同时指出,无论获批许可级别如何,英伟达都能在保障中国客户供应的同时,不影响全球其他地区的交付能力。
对黄仁勋而言,此次 CES 亮相是他为推动 AI 系统部署而展开系列宣介活动的最新一站。其重要竞争对手超威半导体公司首席执行官 Lisa Su 也预定在展会发表主题演讲。
新产品系列包含网络与连接组件,将作为 DGX SuperPod 超级计算机的组成部分,同时也支持客户以模块化形式单独采购。性能升级需求源于 AI 技术正转向更专业的模型网络,这些网络不仅需处理海量输入数据,还要通过多阶段流程解决特定问题。
公司特别强调,基于 Rubin 的系统运营成本将低于 Blackwell 版本,因其能用更少组件实现同等效能。微软等大型远程计算服务商预计将在下半年率先部署该硬件。
新战略
目前英伟达计算机系统的采购资金主要来自微软、谷歌云和亚马逊 AWS 等少数客户的资本支出预算。公司正通过软硬件协同创新推动 AI 在机器人、医疗保健和重工业等经济各领域的普及。
作为战略部署的重要一环,英伟达同期发布了一套用于加速自动驾驶汽车和机器人开发的工具组合。
NVIDIA Alpamayo 系列打造开放式 AI 模型、仿真工具和数据集,旨在加速下一代安全、基于推理的自动驾驶汽车 (AV) 开发。
Alpamayo 系列引入了基于推理的思维链式视觉语言动作(VLA)模型,将类人思维引入自动驾驶汽车的决策过程。
在 NVIDIA Halos 安全系统的支持下,这些模型能够逐步思考新颖的场景,从而提升驾驶能力和可解释性——这对于增强智能汽车的信任度和安全性至关重要。
黄仁勋表示,“物理人工智能的 ChatGPT 时刻已经到来——机器开始理解、推理并在现实世界中行动,”英伟达创始人兼首席执行官黄仁勋表示。“无人驾驶出租车是首批受益者之一。”
参考资料:
https://nvidianews.nvidia.com/news/alpamayo-autonomous-vehicle-development
https://www.bloomberg.com/news/articles/2026-01-05/nvidia-ceo-says-new-rubin-chips-are-on-track-helping-speed-ai