
01
算力与基础设施(芯片/云/数据中心)
①CES 2026:英伟达Rubin系列芯片与自动驾驶AI登场
同样是在2026年国际消费电子展上,被谷歌TPU逐渐打破生态壁垒的英伟达选择开年出击。黄仁勋在今年第一场演讲上着重强调了以下三部分内容:
一是2025年开源模型正在改变AI行业。
提及开源模型,首当其冲的必然是DeepSeek R1这个被黄仁勋描述为“让整个世界震惊”的国产模型。自R1发布以来,AI开始进入全球扩散化阶段,相比最前沿的AI模型,开源模型仅仅落后约6个月,而这一距离正在肉眼可见地缩短。技术无法被彻底封锁,依靠闭源实现垄断的路径几乎不可能走通,只有拥抱开源才能构建庞大的生态环境。
黄仁勋表示,英伟达会将很多数据库进行开源(包括复杂的物理、生物数据),允许用户处理并生成数据,帮助用户完成模型的创造、训练、评估、约束和部署的闭环。
黄仁勋称,英伟达采用完全公开的方式,让每家公司、每个行业、每个国家都成为AI革命的一部分。

二是推出全球首个专门为自动驾驶设计的思考与推理模型Alpamayo。
该模型引入了视觉语言动作模型(VLA),通过向自动驾驶的决策过程中加入人类思维以提升安全性和应急处理能力。英伟达将这一模型以及包含上千小时的物理数据同时开源,用户可以自行获取并微调该模型。

三是英伟达全新一代计算平台Vera Rubin全面投产。
黄仁勋表示,训练和推理阶段所需的算力仍然在不断激增,模型的规模每年大概要扩大10倍,“Test-Time Scaling”每年在推理阶段消耗的token数量增长大概五倍,而token成本则每年要便宜10倍。因此,AI竞争的本质仍然是计算问题。计算速度的提升意味着更快达到下一个领域的新高度。

为此,英伟达设计的Vera Rubin计算平台恰好在AI的下一个前沿领域到来之际开始投产。按照英伟达内部准则,新一代产品不应该更换超过2枚芯片。
不过,由于摩尔定律放缓,英伟达每年能够获得的晶体管数量已经无法匹配模型规模和tokens消耗量的迅速扩大,因此英伟达别无选择,只能采用更为激进的方式:Vera Rubin是一个由6枚芯片设计为协同工作的系统,诞生于极端代码设计。

根据演讲公布的数据,Vera Rubin NVL72系统相比前代Blackwell系统,各项数据指标均实现显著提升,其中在FP4推理算力和训练算力上分别增强至3.6倍和2.5倍,整个机柜包含220万亿个晶体管。除此之外,黄仁勋亲自演示了计算节点的组装,耗时从前代的2个小时压缩到了5分钟,系统实现100%液冷。

性能方面,以训练一个10万亿参数规模的模型、使用100万亿个token为例,Rubin NVL72所需的GPU数量仅为Blackwell NVL72的1/4;大规模部署场景下,能够处理的token数量是Blackwell的10倍;token成本则压缩到了Blackwell的1/10。

短评:
这次英伟达“开源模型+自动驾驶+计算平台”三军齐出,可见以谷歌TPU为首的ASIC对英伟达造成的压力非同小可。在其他厂商开始尝试在特定场景实现更高的能效比的同时,英伟达转向了全栈系统能力的竞争。
Rubin平台作为一个可编程、可组合、支持多模态负载的AI系统,进一步扩大了英伟达生态环境的覆盖范围,而推理成本和训练效率的改进让英伟达能够用系统级的优化对冲ASIC的能效优势。
与此同时,黄仁勋对于开源模型的赞美以及Alpamayo的开源,则说明英伟达的护城河已经不再稳定,需要通过开源换取生态主导权。本次演讲中反复强调的物理AI则是英伟达押注的下一片AI主战场,具身智能、机器人和自动驾驶将成为未来AI应用的重点。
③CES 2026:AMD发布新一代AI PC芯片游戏处理器
AMD在此次国际消费电子展上宣布了一系列新的AI处理器,表示AI驱动的个人端PC将会是未来的趋势。
本次发布的是AMD Ryzen AI 400系列处理器,也是AMD AI驱动PC芯片的最新版本。相比竞争对手,多任务处理性能比竞品快1.3倍,视频剪辑和图像生成等创作任务快1.7倍,内置12核24线程,专门为本地AI推理而进行优化。
生态环境上,目前已有250款以上的AI PC已经搭载AMD芯片,在过去的一年时间内实现了翻倍。同时,全新的Ryzen 7 9850X3D游戏CPU被视为目前最强大的游戏CPU,搭配最新版本的Redstone光追技术,能够在保持帧率不降的情况下实现更真实的光影效果。
短评:
相比英伟达首次没有在演讲中提及消费级显卡,甚至减产RTX 5070 / 5060 Ti等产品,AMD更倾向于将目标聚焦于个人电脑端和轻量级AI,差异化的产品设计方向也与AMD“让每个人都用上AI”的目标相匹配。
尽管二者发布的产品并非直接竞争对手,但AMD的这次产品发布无疑能够进一步提高生态渗透率,同时增加轻量级模型的应用场景。
02
重大发布(新模型/产品/开源)
①CES 2026:Google TV接入Gemini,“边缘化”的电视重回舞台
2026年国际消费电子展上,Google展示了将在其互联网电视平台Google TV上增加的多种Gemini相关功能,首发搭载于新款TCL电视,预计在未来几个月内覆盖所有Google TV设备。
目前,Google TV上的Gemini支持的功能仍然较为简单:
一是根据用户的指令进行内容查找和相关推荐;
二是允许用户使用语音直接更改电视相关设置;
三是连接谷歌相册进行图像处理;
四是与用户针对特定话题进行语音问答式互动。
以上功能除了必备的互联网连接和谷歌账户以外,还需要Android TV OS 14以上版本方能支持运行。
短评:
电视作为上一代电子产品,如今的应用范围已经极为有限。谷歌这次锦上添花的更新,几乎不具备创新性,功能也较为局限,唯一的价值在于覆盖了更广泛的用户群体。
②豆包大模型Doubao-Seed-1.8恢复公开可用
2025年12月25日,广受国内用户好评的豆包1.8版本大模型在仅仅发布10天就宣告调整,变为公测状态,仅允许白名单用户使用。根据官方给出的原因,Doubao-Seed-1.8的视觉语言模型需要进行调整,以便提供更高质量的技术服务。

目前,该模型已经重新开放体验,但在“智能路由”的全自动模式下,其候选模型列表中仍然未包含Doubao-Seed-1.8。
短评:
作为国内目前最受欢迎的模型系列,豆包日均50万以上的tokens消耗量令人震惊。尽管官方没有给出这次技术调整的具体细节,但频繁的请求导致字节的算力本就十分紧张,再加上近期AI安全性问题不时暴露,于此时进行紧急调整有利于完善使用体验,短短几天吊起用户胃口也能进一步拉动模型需求增长。
③国产医疗语言模型开源:AntAngelMed拿下HealthBench榜首
昨日,浙江省卫生健康信息中心联合蚂蚁健康、浙江省安诊儿医学人工智能科技有限公司联合研发了这款名为AntAngelMed的模型,同时它也是目前规模最大、能力最强的开源医疗语言模型之一。

该模型采用三阶段的训练方式:
第一阶段是持续预训练(Continual Pre-Training),大规模、高质量的语料库有助于模型学习专业领域的知识;
第二阶段是监督微调(Supervised Fine-Tuning, SFT),通过高质量的指令数据集模拟医学场景,提升临床表现;
第三阶段是强化学习(Reinforcement Learning, RL),强调共情能力和安全边界,减少幻觉概率。
同时,这一医疗模型采用了高效的MoE架构,总参数100B,每次运行只需要激活6.1B,在H20上的推理速度超过200 tokens/s,支持128K上下文窗口。
短评:
尽管该模型性能非常强大,但其硬件配置需求略显高昂,若想在实际场景中应用至少需要H200级的计算性能;与此同时,由于LLM概率预测器的本质以及自回归生成的机制,幻觉在本质上难以完全避免,导致该模型在医学领域的部分复杂场景中难以实际应用。
03
商业动态(融资/合作/财报)
①字节跳动辟谣:豆包AI眼镜目前无明确销售计划
几天前,字节旗下的豆包AI眼镜进入出货阶段的消息让AI硬件领域沸腾起来,当时传出的消息是“总量10万台,采用高通AR1芯片”。不过,今天上午字节正式否认了这一传言,明确告知目前暂无销售计划。
目前,AI可穿戴设备市场的竞争已经拉开帷幕。2025年,国内有百度的“小度AI眼镜”、阿里的“夸克AI眼镜”,国外有Meta的“Ray-Ban Display”,AR与AI能力的不断提升促生出了这些广受好评的新一代智能设备,在功能层面上已有替代手机的趋势。2026年,谷歌预计发布代号为“Project Aura”的AI眼镜,而字节的相关产品也即将诞生。
短评:
尽管字节否认了销售计划,但短短几个小时内两条消息的接连发布,仍然存在造势的可能。在市场已有多款同类竞品发布的情况下,字节需要推出技术和用户体验都更加完善的产品才能在市场中立足,而这正是坐拥豆包和抖音这两款“国民级”应用、掌握大量用户使用偏好数据的字节的优势所在。
②Google DeepMind产品负责人:是时候重新开始发货了!
今天凌晨,Google Deepmind的产品负责人Logan Kilpatrick发布了一条耐人寻味的推文:

几个小时后,又发布了一条升级Google AI Studio仪表盘的消息:

可以推测,不久的未来Gemini将会有新产品诞生,目前广泛猜测的可能性有两个:
一是Gemini 3的新检查点,即对现有Gemini 3模型的微调或对齐优化;
二是Nano Banana 2 Flash,即图像生成模型Nano Banana的轻量级版本。
短评:
谷歌的产品矩阵已经比较完善,无论是大语言模型还是多模态模型,使用体验都无可挑剔。本次发布的大概率不会是重量级新产品。但是,目前AI行业已经向着Agent这一领域开始进发,谷歌虽然具备全球数一数二的技术能力,但迟迟未有构建Agent相关的大动作。
不过,考虑到谷歌在与OpenAI这位LLMs先驱者的竞争中已经实现弯道超车,等到Agent的市场格局进一步完善再出手也是不错的选择。
原文标题 : 大模型日报| 英伟达在CES2026上的三宗事

01
算力与基础设施(芯片/云/数据中心)
①CES 2026:英伟达Rubin系列芯片与自动驾驶AI登场
同样是在2026年国际消费电子展上,被谷歌TPU逐渐打破生态壁垒的英伟达选择开年出击。黄仁勋在今年第一场演讲上着重强调了以下三部分内容:
一是2025年开源模型正在改变AI行业。
提及开源模型,首当其冲的必然是DeepSeek R1这个被黄仁勋描述为“让整个世界震惊”的国产模型。自R1发布以来,AI开始进入全球扩散化阶段,相比最前沿的AI模型,开源模型仅仅落后约6个月,而这一距离正在肉眼可见地缩短。技术无法被彻底封锁,依靠闭源实现垄断的路径几乎不可能走通,只有拥抱开源才能构建庞大的生态环境。
黄仁勋表示,英伟达会将很多数据库进行开源(包括复杂的物理、生物数据),允许用户处理并生成数据,帮助用户完成模型的创造、训练、评估、约束和部署的闭环。
黄仁勋称,英伟达采用完全公开的方式,让每家公司、每个行业、每个国家都成为AI革命的一部分。

二是推出全球首个专门为自动驾驶设计的思考与推理模型Alpamayo。
该模型引入了视觉语言动作模型(VLA),通过向自动驾驶的决策过程中加入人类思维以提升安全性和应急处理能力。英伟达将这一模型以及包含上千小时的物理数据同时开源,用户可以自行获取并微调该模型。

三是英伟达全新一代计算平台Vera Rubin全面投产。
黄仁勋表示,训练和推理阶段所需的算力仍然在不断激增,模型的规模每年大概要扩大10倍,“Test-Time Scaling”每年在推理阶段消耗的token数量增长大概五倍,而token成本则每年要便宜10倍。因此,AI竞争的本质仍然是计算问题。计算速度的提升意味着更快达到下一个领域的新高度。

为此,英伟达设计的Vera Rubin计算平台恰好在AI的下一个前沿领域到来之际开始投产。按照英伟达内部准则,新一代产品不应该更换超过2枚芯片。
不过,由于摩尔定律放缓,英伟达每年能够获得的晶体管数量已经无法匹配模型规模和tokens消耗量的迅速扩大,因此英伟达别无选择,只能采用更为激进的方式:Vera Rubin是一个由6枚芯片设计为协同工作的系统,诞生于极端代码设计。

根据演讲公布的数据,Vera Rubin NVL72系统相比前代Blackwell系统,各项数据指标均实现显著提升,其中在FP4推理算力和训练算力上分别增强至3.6倍和2.5倍,整个机柜包含220万亿个晶体管。除此之外,黄仁勋亲自演示了计算节点的组装,耗时从前代的2个小时压缩到了5分钟,系统实现100%液冷。

性能方面,以训练一个10万亿参数规模的模型、使用100万亿个token为例,Rubin NVL72所需的GPU数量仅为Blackwell NVL72的1/4;大规模部署场景下,能够处理的token数量是Blackwell的10倍;token成本则压缩到了Blackwell的1/10。

短评:
这次英伟达“开源模型+自动驾驶+计算平台”三军齐出,可见以谷歌TPU为首的ASIC对英伟达造成的压力非同小可。在其他厂商开始尝试在特定场景实现更高的能效比的同时,英伟达转向了全栈系统能力的竞争。
Rubin平台作为一个可编程、可组合、支持多模态负载的AI系统,进一步扩大了英伟达生态环境的覆盖范围,而推理成本和训练效率的改进让英伟达能够用系统级的优化对冲ASIC的能效优势。
与此同时,黄仁勋对于开源模型的赞美以及Alpamayo的开源,则说明英伟达的护城河已经不再稳定,需要通过开源换取生态主导权。本次演讲中反复强调的物理AI则是英伟达押注的下一片AI主战场,具身智能、机器人和自动驾驶将成为未来AI应用的重点。
③CES 2026:AMD发布新一代AI PC芯片游戏处理器
AMD在此次国际消费电子展上宣布了一系列新的AI处理器,表示AI驱动的个人端PC将会是未来的趋势。
本次发布的是AMD Ryzen AI 400系列处理器,也是AMD AI驱动PC芯片的最新版本。相比竞争对手,多任务处理性能比竞品快1.3倍,视频剪辑和图像生成等创作任务快1.7倍,内置12核24线程,专门为本地AI推理而进行优化。
生态环境上,目前已有250款以上的AI PC已经搭载AMD芯片,在过去的一年时间内实现了翻倍。同时,全新的Ryzen 7 9850X3D游戏CPU被视为目前最强大的游戏CPU,搭配最新版本的Redstone光追技术,能够在保持帧率不降的情况下实现更真实的光影效果。
短评:
相比英伟达首次没有在演讲中提及消费级显卡,甚至减产RTX 5070 / 5060 Ti等产品,AMD更倾向于将目标聚焦于个人电脑端和轻量级AI,差异化的产品设计方向也与AMD“让每个人都用上AI”的目标相匹配。
尽管二者发布的产品并非直接竞争对手,但AMD的这次产品发布无疑能够进一步提高生态渗透率,同时增加轻量级模型的应用场景。
02
重大发布(新模型/产品/开源)
①CES 2026:Google TV接入Gemini,“边缘化”的电视重回舞台
2026年国际消费电子展上,Google展示了将在其互联网电视平台Google TV上增加的多种Gemini相关功能,首发搭载于新款TCL电视,预计在未来几个月内覆盖所有Google TV设备。
目前,Google TV上的Gemini支持的功能仍然较为简单:
一是根据用户的指令进行内容查找和相关推荐;
二是允许用户使用语音直接更改电视相关设置;
三是连接谷歌相册进行图像处理;
四是与用户针对特定话题进行语音问答式互动。
以上功能除了必备的互联网连接和谷歌账户以外,还需要Android TV OS 14以上版本方能支持运行。
短评:
电视作为上一代电子产品,如今的应用范围已经极为有限。谷歌这次锦上添花的更新,几乎不具备创新性,功能也较为局限,唯一的价值在于覆盖了更广泛的用户群体。
②豆包大模型Doubao-Seed-1.8恢复公开可用
2025年12月25日,广受国内用户好评的豆包1.8版本大模型在仅仅发布10天就宣告调整,变为公测状态,仅允许白名单用户使用。根据官方给出的原因,Doubao-Seed-1.8的视觉语言模型需要进行调整,以便提供更高质量的技术服务。

目前,该模型已经重新开放体验,但在“智能路由”的全自动模式下,其候选模型列表中仍然未包含Doubao-Seed-1.8。
短评:
作为国内目前最受欢迎的模型系列,豆包日均50万以上的tokens消耗量令人震惊。尽管官方没有给出这次技术调整的具体细节,但频繁的请求导致字节的算力本就十分紧张,再加上近期AI安全性问题不时暴露,于此时进行紧急调整有利于完善使用体验,短短几天吊起用户胃口也能进一步拉动模型需求增长。
③国产医疗语言模型开源:AntAngelMed拿下HealthBench榜首
昨日,浙江省卫生健康信息中心联合蚂蚁健康、浙江省安诊儿医学人工智能科技有限公司联合研发了这款名为AntAngelMed的模型,同时它也是目前规模最大、能力最强的开源医疗语言模型之一。

该模型采用三阶段的训练方式:
第一阶段是持续预训练(Continual Pre-Training),大规模、高质量的语料库有助于模型学习专业领域的知识;
第二阶段是监督微调(Supervised Fine-Tuning, SFT),通过高质量的指令数据集模拟医学场景,提升临床表现;
第三阶段是强化学习(Reinforcement Learning, RL),强调共情能力和安全边界,减少幻觉概率。
同时,这一医疗模型采用了高效的MoE架构,总参数100B,每次运行只需要激活6.1B,在H20上的推理速度超过200 tokens/s,支持128K上下文窗口。
短评:
尽管该模型性能非常强大,但其硬件配置需求略显高昂,若想在实际场景中应用至少需要H200级的计算性能;与此同时,由于LLM概率预测器的本质以及自回归生成的机制,幻觉在本质上难以完全避免,导致该模型在医学领域的部分复杂场景中难以实际应用。
03
商业动态(融资/合作/财报)
①字节跳动辟谣:豆包AI眼镜目前无明确销售计划
几天前,字节旗下的豆包AI眼镜进入出货阶段的消息让AI硬件领域沸腾起来,当时传出的消息是“总量10万台,采用高通AR1芯片”。不过,今天上午字节正式否认了这一传言,明确告知目前暂无销售计划。
目前,AI可穿戴设备市场的竞争已经拉开帷幕。2025年,国内有百度的“小度AI眼镜”、阿里的“夸克AI眼镜”,国外有Meta的“Ray-Ban Display”,AR与AI能力的不断提升促生出了这些广受好评的新一代智能设备,在功能层面上已有替代手机的趋势。2026年,谷歌预计发布代号为“Project Aura”的AI眼镜,而字节的相关产品也即将诞生。
短评:
尽管字节否认了销售计划,但短短几个小时内两条消息的接连发布,仍然存在造势的可能。在市场已有多款同类竞品发布的情况下,字节需要推出技术和用户体验都更加完善的产品才能在市场中立足,而这正是坐拥豆包和抖音这两款“国民级”应用、掌握大量用户使用偏好数据的字节的优势所在。
②Google DeepMind产品负责人:是时候重新开始发货了!
今天凌晨,Google Deepmind的产品负责人Logan Kilpatrick发布了一条耐人寻味的推文:

几个小时后,又发布了一条升级Google AI Studio仪表盘的消息:

可以推测,不久的未来Gemini将会有新产品诞生,目前广泛猜测的可能性有两个:
一是Gemini 3的新检查点,即对现有Gemini 3模型的微调或对齐优化;
二是Nano Banana 2 Flash,即图像生成模型Nano Banana的轻量级版本。
短评:
谷歌的产品矩阵已经比较完善,无论是大语言模型还是多模态模型,使用体验都无可挑剔。本次发布的大概率不会是重量级新产品。但是,目前AI行业已经向着Agent这一领域开始进发,谷歌虽然具备全球数一数二的技术能力,但迟迟未有构建Agent相关的大动作。
不过,考虑到谷歌在与OpenAI这位LLMs先驱者的竞争中已经实现弯道超车,等到Agent的市场格局进一步完善再出手也是不错的选择。
原文标题 : 大模型日报| 英伟达在CES2026上的三宗事