特斯拉关停Dojo研发, AI5/AI6芯片成为新核心

智车科技

3周前

特斯拉在硬件与数据策略上的同步转向,使其FSD研发模式形成了新的闭环:世界模型在GPU集群上训练,AI5/AI6推理集群批量生成合成数据,最终产出的轻量模型部署到数百万辆车上进行验证和优化。

芝能智芯出品

特斯拉正在对AI芯片和硬件的开发做了重新的安排,这家以硬件自研闻名的公司,关闭原有的Dojo超算研发部门,将核心算力资源集中到两款新一代自研芯片——AI5和AI6。

不同于Dojo时代的“训练为王”,特斯拉的新策略是围绕这两款芯片,构建推理与训练一体化的分布式计算平台,并将推理集群置于FSD(完全自动驾驶)研发的中心位置。

这背后是特斯拉对自动驾驶训练体系的根本调整——从依赖真实道路数据,转向由世界模型生成的合成数据驱动。

通过在云端高并发运行世界模型,特斯拉可以批量生产覆盖极端与长尾场景的合成驾驶数据,并与真实数据结合,快速训练、迭代可部署在车端的FSD模型,压缩了数据采集和标注的成本与周期,还让特斯拉在安全性和可控性上掌握了主动权。

Part 1 AI 芯片战略调整背景与硬件架构演变

特斯拉的Dojo项目自启动以来,一直被视为公司在自动驾驶与AI算力自主化道路上的重要里程碑。

其早期定位是打造一个可在内部完成大规模神经网络训练的专有超算平台,减少对外部GPU厂商的依赖,并为FSD(全自动驾驶)模型提供持续、快速迭代的训练环境,随着FSD研发思路的演变和合成数据生成的重要性上升,特斯拉发现原有的Dojo路线存在冗余性与资源分散问题。

关闭Dojo超算研发部门并非完全放弃自研AI硬件,而是将核心资源集中于AI5与AI6两款芯片。这两款芯片均由特斯拉自主设计,台积电代工生产,具备推理与训练的双重能力。

马斯克在最新表态中指出,与其同时研发多条产品线,不如通过在架构、带宽和封装上的优化,将AI5与AI6的算力模块化组合,以满足从车端到云端不同场景的计算需求。

在硬件架构上,特斯拉提出了灵活的扩展模式:单颗AI5或AI6可在车辆或机器人端完成推理任务,而多颗芯片并联(最多可达512颗)则可构建高带宽推理集群,承担世界模型运行及大规模合成数据生成任务。

该方案被称为“Dojo 3”,但其本质已不再是单一的训练超算,而是一个推理驱动、可兼顾训练的分布式计算平台。

AI5与AI6在设计理念上强调晶体管密度与数据通道带宽的平衡。单颗芯片拥有数百亿级晶体管,面积达645平方毫米,采用模块化封装,以降低热管理与电源分配的复杂度。

在生产环节,三星有可能承接AI6的部分制造任务,而英特尔则被传将参与芯片封装,形成台积电—三星—英特尔三方协作模式。这一多元化供应链不仅有助于降低单一代工风险,也为特斯拉在产能和成本控制上提供更多主动权。

与此同时,特斯拉并未放弃外部算力资源,而是继续使用英伟达GPU集群进行世界模型训练,并与内部AI5/AI6推理集群形成互补。

英伟达在超大规模训练场景下依旧具备成熟的软件生态和性能优势,而特斯拉自研芯片则在特定推理任务中具备更高的能效比。

这种混合架构为特斯拉的计算平台带来了兼容性与灵活性,既保持了技术的自主性,又利用了外部成熟资源的稳定性。

Part 2 合成数据驱动的FSD训练体系重构

特斯拉战略调整的核心动因,并非单纯出于硬件设计的优化,而是与其FSD模型训练方法的根本变化密切相关。

过去,FSD训练高度依赖从特斯拉车队收集的真实道路数据,这种方式虽然保证了数据的真实性与多样性,但在覆盖极端场景、长尾分布以及高危驾驶情境方面存在明显不足。此外,真实数据的采集与标注成本高昂,且迭代周期受制于现实条件。

特斯拉正将训练数据集的重心转向由世界模型生成的合成数据。

所谓世界模型,是在云端训练出的超大规模AI模型,它能够在虚拟环境中模拟道路、交通参与者及各种天气与光照条件。通过在该模型上进行推理,特斯拉可以快速生成数量庞大、分布多样且可控性极高的合成驾驶数据。这些合成数据再与一定比例的真实道路数据结合,用于训练新的FSD模型。

这一策略带来的直接结果是,FSD模型训练中推理的比重显著提升。

传统流程中,推理主要发生在车辆端,即模型已经训练完毕后用于实际驾驶决策;

而现在,大量推理任务被前置到云端世界模型运行阶段,用于合成数据生成。

这要求云端推理系统具备极高的带宽与低延迟能力,以支持成千上万场景的并行生成。在此背景下,由AI5/AI6芯片组成的推理集群(即Dojo 3)正好契合这一需求。

在新的训练体系下,特斯拉的AI工作流大致分为三个层次:

首先,使用英伟达GPU集群训练超大参数量的世界模型。该模型并不直接部署到车辆上,而是作为合成数据生成引擎。

其次,通过AI5/AI6推理集群运行世界模型,在大规模并行运算中生成覆盖广泛场景的合成数据。这些数据可灵活调整参数,例如增加雨雪天气、夜间驾驶、特殊交通事件等长尾情景。

◎ 最后,将合成数据与部分真实道路数据混合,训练出小参数量、可在车端部署的FSD模型,并在车队中进行快速迭代与反馈更新。

采用合成数据的优势不仅在于效率与可控性,还在于安全性。许多现实中危险或难以重现的情景,可以在虚拟世界中无限次模拟,从而在不增加现实风险的前提下提升模型的应对能力。

这种方法也逐渐成为AI领域的共识趋势,不仅特斯拉,近期一些大型模型如Grok 4、GPT-5也采用了类似的策略,将合成数据作为训练集的重要组成部分。

小结

特斯拉在硬件与数据策略上的同步转向,使其FSD研发模式形成了新的闭环:世界模型在GPU集群上训练,AI5/AI6推理集群批量生成合成数据,最终产出的轻量模型部署到数百万辆车上进行验证和优化。这样的架构既保留了英伟达GPU的成熟生态,又通过自研芯片掌握了关键环节的算力自主权。

在整个行业都在探索自动驾驶与通用人工智能融合的今天,特斯拉的做法提供了一种参考路径——推理与训练不再泾渭分明,真实与合成数据不再对立,而是在硬件、算法与生产流程上高度耦合。这可能是下一阶段AI竞争的主流方向。

原文标题 : 特斯拉关停Dojo研发,AI5/AI6芯片成为新核心

特斯拉在硬件与数据策略上的同步转向,使其FSD研发模式形成了新的闭环:世界模型在GPU集群上训练,AI5/AI6推理集群批量生成合成数据,最终产出的轻量模型部署到数百万辆车上进行验证和优化。

芝能智芯出品

特斯拉正在对AI芯片和硬件的开发做了重新的安排,这家以硬件自研闻名的公司,关闭原有的Dojo超算研发部门,将核心算力资源集中到两款新一代自研芯片——AI5和AI6。

不同于Dojo时代的“训练为王”,特斯拉的新策略是围绕这两款芯片,构建推理与训练一体化的分布式计算平台,并将推理集群置于FSD(完全自动驾驶)研发的中心位置。

这背后是特斯拉对自动驾驶训练体系的根本调整——从依赖真实道路数据,转向由世界模型生成的合成数据驱动。

通过在云端高并发运行世界模型,特斯拉可以批量生产覆盖极端与长尾场景的合成驾驶数据,并与真实数据结合,快速训练、迭代可部署在车端的FSD模型,压缩了数据采集和标注的成本与周期,还让特斯拉在安全性和可控性上掌握了主动权。

Part 1 AI 芯片战略调整背景与硬件架构演变

特斯拉的Dojo项目自启动以来,一直被视为公司在自动驾驶与AI算力自主化道路上的重要里程碑。

其早期定位是打造一个可在内部完成大规模神经网络训练的专有超算平台,减少对外部GPU厂商的依赖,并为FSD(全自动驾驶)模型提供持续、快速迭代的训练环境,随着FSD研发思路的演变和合成数据生成的重要性上升,特斯拉发现原有的Dojo路线存在冗余性与资源分散问题。

关闭Dojo超算研发部门并非完全放弃自研AI硬件,而是将核心资源集中于AI5与AI6两款芯片。这两款芯片均由特斯拉自主设计,台积电代工生产,具备推理与训练的双重能力。

马斯克在最新表态中指出,与其同时研发多条产品线,不如通过在架构、带宽和封装上的优化,将AI5与AI6的算力模块化组合,以满足从车端到云端不同场景的计算需求。

在硬件架构上,特斯拉提出了灵活的扩展模式:单颗AI5或AI6可在车辆或机器人端完成推理任务,而多颗芯片并联(最多可达512颗)则可构建高带宽推理集群,承担世界模型运行及大规模合成数据生成任务。

该方案被称为“Dojo 3”,但其本质已不再是单一的训练超算,而是一个推理驱动、可兼顾训练的分布式计算平台。

AI5与AI6在设计理念上强调晶体管密度与数据通道带宽的平衡。单颗芯片拥有数百亿级晶体管,面积达645平方毫米,采用模块化封装,以降低热管理与电源分配的复杂度。

在生产环节,三星有可能承接AI6的部分制造任务,而英特尔则被传将参与芯片封装,形成台积电—三星—英特尔三方协作模式。这一多元化供应链不仅有助于降低单一代工风险,也为特斯拉在产能和成本控制上提供更多主动权。

与此同时,特斯拉并未放弃外部算力资源,而是继续使用英伟达GPU集群进行世界模型训练,并与内部AI5/AI6推理集群形成互补。

英伟达在超大规模训练场景下依旧具备成熟的软件生态和性能优势,而特斯拉自研芯片则在特定推理任务中具备更高的能效比。

这种混合架构为特斯拉的计算平台带来了兼容性与灵活性,既保持了技术的自主性,又利用了外部成熟资源的稳定性。

Part 2 合成数据驱动的FSD训练体系重构

特斯拉战略调整的核心动因,并非单纯出于硬件设计的优化,而是与其FSD模型训练方法的根本变化密切相关。

过去,FSD训练高度依赖从特斯拉车队收集的真实道路数据,这种方式虽然保证了数据的真实性与多样性,但在覆盖极端场景、长尾分布以及高危驾驶情境方面存在明显不足。此外,真实数据的采集与标注成本高昂,且迭代周期受制于现实条件。

特斯拉正将训练数据集的重心转向由世界模型生成的合成数据。

所谓世界模型,是在云端训练出的超大规模AI模型,它能够在虚拟环境中模拟道路、交通参与者及各种天气与光照条件。通过在该模型上进行推理,特斯拉可以快速生成数量庞大、分布多样且可控性极高的合成驾驶数据。这些合成数据再与一定比例的真实道路数据结合,用于训练新的FSD模型。

这一策略带来的直接结果是,FSD模型训练中推理的比重显著提升。

传统流程中,推理主要发生在车辆端,即模型已经训练完毕后用于实际驾驶决策;

而现在,大量推理任务被前置到云端世界模型运行阶段,用于合成数据生成。

这要求云端推理系统具备极高的带宽与低延迟能力,以支持成千上万场景的并行生成。在此背景下,由AI5/AI6芯片组成的推理集群(即Dojo 3)正好契合这一需求。

在新的训练体系下,特斯拉的AI工作流大致分为三个层次:

首先,使用英伟达GPU集群训练超大参数量的世界模型。该模型并不直接部署到车辆上,而是作为合成数据生成引擎。

其次,通过AI5/AI6推理集群运行世界模型,在大规模并行运算中生成覆盖广泛场景的合成数据。这些数据可灵活调整参数,例如增加雨雪天气、夜间驾驶、特殊交通事件等长尾情景。

◎ 最后,将合成数据与部分真实道路数据混合,训练出小参数量、可在车端部署的FSD模型,并在车队中进行快速迭代与反馈更新。

采用合成数据的优势不仅在于效率与可控性,还在于安全性。许多现实中危险或难以重现的情景,可以在虚拟世界中无限次模拟,从而在不增加现实风险的前提下提升模型的应对能力。

这种方法也逐渐成为AI领域的共识趋势,不仅特斯拉,近期一些大型模型如Grok 4、GPT-5也采用了类似的策略,将合成数据作为训练集的重要组成部分。

小结

特斯拉在硬件与数据策略上的同步转向,使其FSD研发模式形成了新的闭环:世界模型在GPU集群上训练,AI5/AI6推理集群批量生成合成数据,最终产出的轻量模型部署到数百万辆车上进行验证和优化。这样的架构既保留了英伟达GPU的成熟生态,又通过自研芯片掌握了关键环节的算力自主权。

在整个行业都在探索自动驾驶与通用人工智能融合的今天,特斯拉的做法提供了一种参考路径——推理与训练不再泾渭分明,真实与合成数据不再对立,而是在硬件、算法与生产流程上高度耦合。这可能是下一阶段AI竞争的主流方向。

原文标题 : 特斯拉关停Dojo研发,AI5/AI6芯片成为新核心

展开
打开“财经头条”阅读更多精彩资讯
APP内打开