导语
Introduction
车不智能都不好意思上路了。
作者丨杨 晶
责编丨杨 晶
编辑丨陈心南
火爆的DeepSeek正在全面进入汽车行业。有人统计,截至2月12日,已经有超过20余家车企和品牌宣布接入DeepSeek,比亚迪、吉利、奇瑞、长安、上汽、东风、广汽等主流车企均在列。
目前DeepSeek推理成本仅为OpenAI的几十分之一,接入汽车产品后,将显著降低车企智能化升级门槛,通过云端模型与本地化部署结合,车企可快速实现OTA功能更新。
各大车企表示,DeepSeek将赋能智能语音,优化模糊意图理解与主动服务能力,在导航规划、娱乐推荐等方面提升交互体验和水平。同时端到端模型的引入,其强劲的知识和推理能力,可以大幅提升自动化数据生成的效率和质量,推动高阶智驾功能更快迭代。
不过,随着DeepSeek的“上车”,一些业内人士尤其是对营销敏感的相关人士,对此也提出了质疑:一个根本没有为车机做适应性的开发的大模型,被拿来当吹牛的噱头,有点过了,车机那点算力能运转的起来?
其实,这种质疑有一定的合理性,但也存在片面性。
合理性方面在于:车机的算力确实相对有限,与大型服务器或高性能计算设备相比,车机在处理复杂计算任务时可能会面临一定的挑战。如果DeepSeek大模型没有经过针对车机环境的优化和适应性开发,直接部署到车机上可能会导致运行效率低下、响应迟缓等问题。
片面性方面在于:实际上,很多车企在接入DeepSeek时,并非简单地将其原封不动地部署到车机上,而是进行了针对性的优化和适应性开发,或者对其进行轻量化处理或定制化开发。
例如,通过模型剪枝、量化、蒸馏等技术,降低模型对算力的需求,同时针对车机场景优化输入输出逻辑。将DeepSeek大模型的知识压缩到一个更小的学生模型中,使其能够在车载芯片上高效运行。
那么车机算力是否能够支持大模型运行呢?
可以肯定的是,车机的算力确实有限,尤其是与云端服务器相比。如果直接将大规模、高复杂度的DeepSeek模型部署到车机上,可能会导致运行效率低下,甚至无法正常运行。
但一般情况下,车企通常采用“云-端协同”的方式来解决算力问题。例如,将复杂的计算任务交给云端处理,车机只负责轻量级的本地任务(如语音唤醒、简单指令执行)。此外,车机芯片的算力也在不断提升,部分高端车型已经搭载了高性能计算单元(如高通骁龙8295、英伟达Orin等),能够支持一定规模的大模型运行。
据透露,很多车企在接入DeepSeek后,都取得了显著的效果。例如,吉利汽车将自研的星睿大模型与DeepSeek-R1深度融合后,交互响应速度提升了40%,意图识别准确率高达98%。其他车企如东风汽车、岚图汽车等,也在接入DeepSeek后,实现了车内语音交互的自然度、场景理解能力等方面的显著提升。
那么有的车企会不会“吹牛”呢?
如果车企仅仅是在宣传中提及接入了DeepSeek大模型,但实际上并未针对车机场景进行充分的优化,或者只是在特定条件下(如实验室环境)实现了功能,而在实际驾驶环境中表现不佳,无法提供稳定、流畅的用户体验,那么评论的质疑是有道理的。
在这种情况下,车企的宣传可能过于夸大其词,没有真实反映技术的实际水平,从而误导了消费者。
然而,另一方面,如果车企在宣传接入DeepSeek大模型的同时,确实在技术层面做了大量工作,如模型优化、算力适配、场景定制等,以确保模型能够在车机上高效运行,并且在实际使用中能够提供流畅、准确的语音交互体验,那么接入DeepSeek大模型是有实际意义的。
在这种情况下,车企的宣传是基于实际技术实力的,没有夸大其词,消费者也可以根据宣传来了解产品的真实性能。
无论车企是否接入了DeepSeek,最终评判标准是用户体验。如果用户在实际使用中感受到语音交互的智能化提升,那么车企的宣传就是有实际支撑的。反之,如果用户体验没有明显改善,甚至出现卡顿、响应慢等问题,评论的质疑就更有说服力。
为什么车企的产品能够快速接入DeepSeek?
东风研发总院的一位工程师此前在一场直播时道出了其中的原委:基于我们现有的智能座舱里面这种语音交互的工程化的链路,它本身具备语音交互的链路和大模型结合的基础的技术能力。
那么可能以前我们在利用一些其他的这种大模型,来赋能我们的智能座舱的里面的这种语音交互在内的这种智能化的功能。当DeepSeek出来之后,正是因为我们有这样的技术基础跟工程化能力的基础,所以我们才能这么快的将DeepSeek大模型引入进来。
这个是第一层面,就是大模型和我们已有的语音交互链路的融合。另外一方面是AI与我们的这种功能场景,这种特色的融合才能将大模型的能力发挥到最大。
该工程师还表示,实际上DeepSeek在智能驾驶上的应用,目前还处于探索阶段,原因是因为自动驾驶它对于实时性和安全性的要求是非常高的。那么我们其实会考虑用DeepSeek的深度推理的能力来辅助我们进行复杂道路环境下的自主决策,来提升用户在自动驾驶上面的这种体验。
“我们认为DeepSeek的一个核心的贡献,它是将大模型的这种应用的成本降低了。因为它开源了,公开了它的技术方案,那么我们汽车智能化功能的普及会加速,那么用户使用的成本也会降低,那么它智能化功能迭代速度也会不断的加快,实际上我们认为它不仅不会提升用户使用的成本跟代价,它会进一步的让用户享受到性价比更高的智能化。”
原文标题 : DeepSeek“上车”,只是一场营销?
导语
Introduction
车不智能都不好意思上路了。
作者丨杨 晶
责编丨杨 晶
编辑丨陈心南
火爆的DeepSeek正在全面进入汽车行业。有人统计,截至2月12日,已经有超过20余家车企和品牌宣布接入DeepSeek,比亚迪、吉利、奇瑞、长安、上汽、东风、广汽等主流车企均在列。
目前DeepSeek推理成本仅为OpenAI的几十分之一,接入汽车产品后,将显著降低车企智能化升级门槛,通过云端模型与本地化部署结合,车企可快速实现OTA功能更新。
各大车企表示,DeepSeek将赋能智能语音,优化模糊意图理解与主动服务能力,在导航规划、娱乐推荐等方面提升交互体验和水平。同时端到端模型的引入,其强劲的知识和推理能力,可以大幅提升自动化数据生成的效率和质量,推动高阶智驾功能更快迭代。
不过,随着DeepSeek的“上车”,一些业内人士尤其是对营销敏感的相关人士,对此也提出了质疑:一个根本没有为车机做适应性的开发的大模型,被拿来当吹牛的噱头,有点过了,车机那点算力能运转的起来?
其实,这种质疑有一定的合理性,但也存在片面性。
合理性方面在于:车机的算力确实相对有限,与大型服务器或高性能计算设备相比,车机在处理复杂计算任务时可能会面临一定的挑战。如果DeepSeek大模型没有经过针对车机环境的优化和适应性开发,直接部署到车机上可能会导致运行效率低下、响应迟缓等问题。
片面性方面在于:实际上,很多车企在接入DeepSeek时,并非简单地将其原封不动地部署到车机上,而是进行了针对性的优化和适应性开发,或者对其进行轻量化处理或定制化开发。
例如,通过模型剪枝、量化、蒸馏等技术,降低模型对算力的需求,同时针对车机场景优化输入输出逻辑。将DeepSeek大模型的知识压缩到一个更小的学生模型中,使其能够在车载芯片上高效运行。
那么车机算力是否能够支持大模型运行呢?
可以肯定的是,车机的算力确实有限,尤其是与云端服务器相比。如果直接将大规模、高复杂度的DeepSeek模型部署到车机上,可能会导致运行效率低下,甚至无法正常运行。
但一般情况下,车企通常采用“云-端协同”的方式来解决算力问题。例如,将复杂的计算任务交给云端处理,车机只负责轻量级的本地任务(如语音唤醒、简单指令执行)。此外,车机芯片的算力也在不断提升,部分高端车型已经搭载了高性能计算单元(如高通骁龙8295、英伟达Orin等),能够支持一定规模的大模型运行。
据透露,很多车企在接入DeepSeek后,都取得了显著的效果。例如,吉利汽车将自研的星睿大模型与DeepSeek-R1深度融合后,交互响应速度提升了40%,意图识别准确率高达98%。其他车企如东风汽车、岚图汽车等,也在接入DeepSeek后,实现了车内语音交互的自然度、场景理解能力等方面的显著提升。
那么有的车企会不会“吹牛”呢?
如果车企仅仅是在宣传中提及接入了DeepSeek大模型,但实际上并未针对车机场景进行充分的优化,或者只是在特定条件下(如实验室环境)实现了功能,而在实际驾驶环境中表现不佳,无法提供稳定、流畅的用户体验,那么评论的质疑是有道理的。
在这种情况下,车企的宣传可能过于夸大其词,没有真实反映技术的实际水平,从而误导了消费者。
然而,另一方面,如果车企在宣传接入DeepSeek大模型的同时,确实在技术层面做了大量工作,如模型优化、算力适配、场景定制等,以确保模型能够在车机上高效运行,并且在实际使用中能够提供流畅、准确的语音交互体验,那么接入DeepSeek大模型是有实际意义的。
在这种情况下,车企的宣传是基于实际技术实力的,没有夸大其词,消费者也可以根据宣传来了解产品的真实性能。
无论车企是否接入了DeepSeek,最终评判标准是用户体验。如果用户在实际使用中感受到语音交互的智能化提升,那么车企的宣传就是有实际支撑的。反之,如果用户体验没有明显改善,甚至出现卡顿、响应慢等问题,评论的质疑就更有说服力。
为什么车企的产品能够快速接入DeepSeek?
东风研发总院的一位工程师此前在一场直播时道出了其中的原委:基于我们现有的智能座舱里面这种语音交互的工程化的链路,它本身具备语音交互的链路和大模型结合的基础的技术能力。
那么可能以前我们在利用一些其他的这种大模型,来赋能我们的智能座舱的里面的这种语音交互在内的这种智能化的功能。当DeepSeek出来之后,正是因为我们有这样的技术基础跟工程化能力的基础,所以我们才能这么快的将DeepSeek大模型引入进来。
这个是第一层面,就是大模型和我们已有的语音交互链路的融合。另外一方面是AI与我们的这种功能场景,这种特色的融合才能将大模型的能力发挥到最大。
该工程师还表示,实际上DeepSeek在智能驾驶上的应用,目前还处于探索阶段,原因是因为自动驾驶它对于实时性和安全性的要求是非常高的。那么我们其实会考虑用DeepSeek的深度推理的能力来辅助我们进行复杂道路环境下的自主决策,来提升用户在自动驾驶上面的这种体验。
“我们认为DeepSeek的一个核心的贡献,它是将大模型的这种应用的成本降低了。因为它开源了,公开了它的技术方案,那么我们汽车智能化功能的普及会加速,那么用户使用的成本也会降低,那么它智能化功能迭代速度也会不断的加快,实际上我们认为它不仅不会提升用户使用的成本跟代价,它会进一步的让用户享受到性价比更高的智能化。”
原文标题 : DeepSeek“上车”,只是一场营销?