文|郑亦久
在AI大模型的演进似乎放缓甚至陷入停滞的2025年初,国产大模型DeepSeek的横空出世,重新点燃了整个行业的激情。它不仅在多项标准评测中展现出惊人的性能,更通过开源策略获得了广泛的社区支持。一时间,全球媒体、行业专家、甚至是机构投资人纷纷给予高度评价,而这些反馈传回国内之后有人将其誉为“国产AI的里程碑”,更有甚者将其与“国运”挂钩,于是DeepSeek瞬间形成破圈之势,并直接登顶微博热搜第一位。
微博截图
然而,在这片赞誉声中,往往更需要保持清醒的认识。毕竟在AI领域,我们已经目睹过太多昙花一现的“明星产品”,它们在短暂的光环过后,要么被市场淘汰,要么被证明徒有其表。
对于DeepSeek的评价,既要看到它确实展现出的技术路线创新,更要考量其路径实现背后的原理以及局限,更重要的是当前这个AI几乎以日新月异的发展阶段,我们应该以什么样的心态来看待技术创新。
01
DeepSeek凭啥能让
美国AI界抖一抖?DeepSeek最先引发热潮是在美国,其更是在近期一举反超ChatGPT,一举登顶美区苹果应用商店免费App排行第一,整个硅谷和AI界都对这款产品发出了极强好奇心。
苹果应用商店免费App排行榜
毫无疑问,DeepSeek最近发布的DeepSeek-R1模型在AI领域掀起了一场技术革新的风暴。这款开源推理大语言模型基于DeepSeek V3混合专家模型开发,在数学、编程和推理任务上达到了与OpenAI的前沿推理模型o1相媲美的性能,而训练成本却降低了90-95%。这一突破不仅展示了开源模型在向AGI迈进的过程中正在快速追赶封闭的商业大模型,更重要的是揭示了一种全新的AI训练范式。DeepSeek的技术创新主要体现在以下几个方面:首先是模型训练效率的突破性提升。DeepSeek V3仅使用了2788K H800训练时长(约合560万美元成本)就达到了接近GPT-4的水平,这一数字之低令业界震惊。更重要的是,他们采用了“AI训练AI”的创新方法:使用R1模型生成合成数据来提升V3的能力。
DeepSeek V3测评
其次是在纯强化学习方面的开创性尝试。DeepSeek实际上开发了两个R1模型:公开的R1和更具突破性的R1-Zero。R1-Zero的特别之处在于它完全摒弃了传统的“基于人类反馈的强化学习”(RLHF)方法,而是采用纯强化学习方式。他们给模型设置了两个奖励函数:一个用于判断答案的正确性,另一个用于评估思维过程的合理性。这种方法让模型能够同时尝试多个不同的答案,并通过这两个奖励函数进行评分。在这个自主学习的过程中,研究人员观察到了一个有趣的现象,他们称之为“醍醐灌顶”时刻。就像人类在解决难题时突然开窍一样,AI模型在训练过程中学会了一种全新的思考方式:它会停下来重新思考问题,不急于得出结论。这个发现告诉我们,只要给AI足够的学习空间和正确的目标,它就能自己发展出复杂的思维能力,不需要人类事无巨细地教导。
然而,这种完全自主学习的AI虽然聪明,但它的思考方式对人类来说很难理解。就像一个天才学生用自创的方法解题,虽然答案正确,但老师和同学都看不懂他的解题过程。为了解决这个问题,DeepSeek开发了更实用的R1模型。他们先教会AI用人类容易理解的方式来表达思路,然后再让它自主学习和提升。这个过程就像是在保持天才创造力的同时,教会他如何清晰地表达自己的想法。
此外,在知识传递结构方面。DeepSeek发现了一种让小型AI模型快速进步的方法:用更强大的AI来给它们上课。这就像是让一位资深教授来培养年轻教师,效果往往比让年轻教师自己摸索要好得多。此发现非常重要,因为它为解决AI普及过程中的成本问题提供了新思路。最令人惊喜的是,通过该方法训练出的小型模型,在某些数学测试中居然表现得比一些超大型AI还要好。这些创新成果确实令人振奋,尤其是在效率提升和成本降低方面的突破,为AI技术的进一步普及带来了新的可能。
但在为这些成就欢呼之前,也许还需要更多冷静的思考:这些创新是否真的如表面看起来那么完美?DeepSeek的发展路径是否真的可持续?同时,在技术快速迭代的AI领域,或许更应该退后一步以理性和务实的态度来评估这些新突破。
02
AI需要祛魅,
别再迷信一时造“新神”
在肯定DeepSeek成就的同时,我们也要清醒地认识到其局限性。Meta AI研究部门FAIR的首席科学家杨立昆最近对此提出了一个深刻的观点:当人们看到DeepSeek的出色表现就认为“中国在AI领域超越了美国”时,这其实是一种误读。正确的理解应该是“开源模型正在超越闭源专有模型”。他指出,DeepSeek的成功很大程度上得益于开源研究和开源社区,如来自Meta的PyTorch和Llama,他们是在其他人的工作基础上提出新想法并构建的。正是因为这些工作都是公开发布和开源的,所以每个人都能从中受益——这正是开源研究和开源精神的力量所在。这一评论其实真正道出了关键。以DeepSeek最新的模型蒸馏实践为例,其将蒸馏后的Llama模型以MIT许可证发布,实际上违反了Llama的原始许可协议。
DeepSeek模型蒸馏实践
Meta推出的Llama大模型虽然是“开源”的,但并非像MIT许可证那样完全无限制,DeepSeek无权单方面改变这一许可条款。此问题不仅暴露出DeepSeek在知识产权管理和商业合规性方面的不足,更反映出其发展很大程度上依赖于开源社区的贡献。此外,虽然DeepSeek在技术层面确实有创新,但这些创新大多是在现有技术框架下的优化和改进,而非根本性的突破。放眼整个AI领域的发展历程,真正的技术革新往往来自于对基础理论的突破和新范式的创立。从这个角度来看,DeepSeek的创新还停留在路径“改良”层面,距离真正的技术突破还有很长的路要走。其次,在实际应用层面,DeepSeek还面临着诸多挑战。大语言模型的商业化不仅需要过硬的技术实力,更需要考虑系统稳定性、数据安全、成本效益等多个维度。目前DeepSeek还缺乏大规模商业应用的验证,其在复杂实际场景中的表现还有待检验,像是最近两天因为热度持续攀升,开始有更多普通用户涌入后,光是27号这一天里就已经多次出现服务宕机的情况。
DeepSeek App截图
而如今AI产品的一大营收来源其实还是企业级应用,在这一场景中稳定性和可靠性的要求往往比简单的性能指标更为重要。从产业发展的角度来看,当前AI领域已经进入深度竞争阶段。领先企业不仅在技术上持续投入,更在积极构建完整的生态系统。相比之下,DeepSeek还显得有些单薄。仅靠开源策略和技术创新,很难在激烈的市场竞争中建立持续的优势。如何将技术优势转化为市场竞争力,如何建立可持续的商业模式,这些都是DeepSeek亟待解决的问题。与此同时,DeepSeek这一系列方法本身也被反馈到了开源社区中,显然后续还会有更多公司基于其技术和理论进一步向前发展。更重要的是,我们需要重新思考对AI技术创新的态度。在当前AI发展的热潮中,过度追捧某个特定产品或技术方案是非常危险的信号。技术发展是一个渐进的过程,需要在不断试错和改进中寻找最优解。过高的期待不仅可能给企业带来不必要的压力,还可能误导整个行业的发展方向。
图源:网络
正如DAIR.AI创始人Elvis所说的:“所有对DeepSeek-R1的阴谋论和过度解读都令人尴尬。我们应该回归DeepSeek-R1的学术和 AI 应用,从研究者的角度看到强化学习的价值,从开发者的角度看到更强的模型能力和本地模型场景。而不是让这些虚假的叙事蒙蔽了你的眼睛,使你错过了DeepSeek-R1所能带来的价值和机遇。开源研究和开源精神依然蓬勃发展。”这或许才是面对创新真正理性且审慎的态度——给予技术成长必要的时间和空间并专注于技术本身,而非在某种不知所以然的盲目对比中轻言胜负已分,或是将一次细分领域的技术演进与某种宏大叙事强行绑定。
对于DeepSeek而言,通过站在前人积累之上做出技术决策实现创新,本身就证明了其能力和价值。当下,整个开源社区的正面回应也肯定了这一正反馈的可行性。之后,其需要做的则是进一步拓宽其技术的衍生并不断深化研究成果。站在更宏观的角度而言,DeepSeek则更多证明了AI技术的竞争与创新尚未迎来终局。
整个行业的创新也绝非仅仅通过囤积算力、无限资金就能完全形成壁垒。这也为更多中小型创业公司重新点燃了希望,毕竟谁也不希望AI行业早早变成如互联网行业一样“赢家通吃”的垃圾时间。
原文标题 : DeepSeek真能超越美国AI界?
文|郑亦久
在AI大模型的演进似乎放缓甚至陷入停滞的2025年初,国产大模型DeepSeek的横空出世,重新点燃了整个行业的激情。它不仅在多项标准评测中展现出惊人的性能,更通过开源策略获得了广泛的社区支持。一时间,全球媒体、行业专家、甚至是机构投资人纷纷给予高度评价,而这些反馈传回国内之后有人将其誉为“国产AI的里程碑”,更有甚者将其与“国运”挂钩,于是DeepSeek瞬间形成破圈之势,并直接登顶微博热搜第一位。
微博截图
然而,在这片赞誉声中,往往更需要保持清醒的认识。毕竟在AI领域,我们已经目睹过太多昙花一现的“明星产品”,它们在短暂的光环过后,要么被市场淘汰,要么被证明徒有其表。
对于DeepSeek的评价,既要看到它确实展现出的技术路线创新,更要考量其路径实现背后的原理以及局限,更重要的是当前这个AI几乎以日新月异的发展阶段,我们应该以什么样的心态来看待技术创新。
01
DeepSeek凭啥能让
美国AI界抖一抖?DeepSeek最先引发热潮是在美国,其更是在近期一举反超ChatGPT,一举登顶美区苹果应用商店免费App排行第一,整个硅谷和AI界都对这款产品发出了极强好奇心。
苹果应用商店免费App排行榜
毫无疑问,DeepSeek最近发布的DeepSeek-R1模型在AI领域掀起了一场技术革新的风暴。这款开源推理大语言模型基于DeepSeek V3混合专家模型开发,在数学、编程和推理任务上达到了与OpenAI的前沿推理模型o1相媲美的性能,而训练成本却降低了90-95%。这一突破不仅展示了开源模型在向AGI迈进的过程中正在快速追赶封闭的商业大模型,更重要的是揭示了一种全新的AI训练范式。DeepSeek的技术创新主要体现在以下几个方面:首先是模型训练效率的突破性提升。DeepSeek V3仅使用了2788K H800训练时长(约合560万美元成本)就达到了接近GPT-4的水平,这一数字之低令业界震惊。更重要的是,他们采用了“AI训练AI”的创新方法:使用R1模型生成合成数据来提升V3的能力。
DeepSeek V3测评
其次是在纯强化学习方面的开创性尝试。DeepSeek实际上开发了两个R1模型:公开的R1和更具突破性的R1-Zero。R1-Zero的特别之处在于它完全摒弃了传统的“基于人类反馈的强化学习”(RLHF)方法,而是采用纯强化学习方式。他们给模型设置了两个奖励函数:一个用于判断答案的正确性,另一个用于评估思维过程的合理性。这种方法让模型能够同时尝试多个不同的答案,并通过这两个奖励函数进行评分。在这个自主学习的过程中,研究人员观察到了一个有趣的现象,他们称之为“醍醐灌顶”时刻。就像人类在解决难题时突然开窍一样,AI模型在训练过程中学会了一种全新的思考方式:它会停下来重新思考问题,不急于得出结论。这个发现告诉我们,只要给AI足够的学习空间和正确的目标,它就能自己发展出复杂的思维能力,不需要人类事无巨细地教导。
然而,这种完全自主学习的AI虽然聪明,但它的思考方式对人类来说很难理解。就像一个天才学生用自创的方法解题,虽然答案正确,但老师和同学都看不懂他的解题过程。为了解决这个问题,DeepSeek开发了更实用的R1模型。他们先教会AI用人类容易理解的方式来表达思路,然后再让它自主学习和提升。这个过程就像是在保持天才创造力的同时,教会他如何清晰地表达自己的想法。
此外,在知识传递结构方面。DeepSeek发现了一种让小型AI模型快速进步的方法:用更强大的AI来给它们上课。这就像是让一位资深教授来培养年轻教师,效果往往比让年轻教师自己摸索要好得多。此发现非常重要,因为它为解决AI普及过程中的成本问题提供了新思路。最令人惊喜的是,通过该方法训练出的小型模型,在某些数学测试中居然表现得比一些超大型AI还要好。这些创新成果确实令人振奋,尤其是在效率提升和成本降低方面的突破,为AI技术的进一步普及带来了新的可能。
但在为这些成就欢呼之前,也许还需要更多冷静的思考:这些创新是否真的如表面看起来那么完美?DeepSeek的发展路径是否真的可持续?同时,在技术快速迭代的AI领域,或许更应该退后一步以理性和务实的态度来评估这些新突破。
02
AI需要祛魅,
别再迷信一时造“新神”
在肯定DeepSeek成就的同时,我们也要清醒地认识到其局限性。Meta AI研究部门FAIR的首席科学家杨立昆最近对此提出了一个深刻的观点:当人们看到DeepSeek的出色表现就认为“中国在AI领域超越了美国”时,这其实是一种误读。正确的理解应该是“开源模型正在超越闭源专有模型”。他指出,DeepSeek的成功很大程度上得益于开源研究和开源社区,如来自Meta的PyTorch和Llama,他们是在其他人的工作基础上提出新想法并构建的。正是因为这些工作都是公开发布和开源的,所以每个人都能从中受益——这正是开源研究和开源精神的力量所在。这一评论其实真正道出了关键。以DeepSeek最新的模型蒸馏实践为例,其将蒸馏后的Llama模型以MIT许可证发布,实际上违反了Llama的原始许可协议。
DeepSeek模型蒸馏实践
Meta推出的Llama大模型虽然是“开源”的,但并非像MIT许可证那样完全无限制,DeepSeek无权单方面改变这一许可条款。此问题不仅暴露出DeepSeek在知识产权管理和商业合规性方面的不足,更反映出其发展很大程度上依赖于开源社区的贡献。此外,虽然DeepSeek在技术层面确实有创新,但这些创新大多是在现有技术框架下的优化和改进,而非根本性的突破。放眼整个AI领域的发展历程,真正的技术革新往往来自于对基础理论的突破和新范式的创立。从这个角度来看,DeepSeek的创新还停留在路径“改良”层面,距离真正的技术突破还有很长的路要走。其次,在实际应用层面,DeepSeek还面临着诸多挑战。大语言模型的商业化不仅需要过硬的技术实力,更需要考虑系统稳定性、数据安全、成本效益等多个维度。目前DeepSeek还缺乏大规模商业应用的验证,其在复杂实际场景中的表现还有待检验,像是最近两天因为热度持续攀升,开始有更多普通用户涌入后,光是27号这一天里就已经多次出现服务宕机的情况。
DeepSeek App截图
而如今AI产品的一大营收来源其实还是企业级应用,在这一场景中稳定性和可靠性的要求往往比简单的性能指标更为重要。从产业发展的角度来看,当前AI领域已经进入深度竞争阶段。领先企业不仅在技术上持续投入,更在积极构建完整的生态系统。相比之下,DeepSeek还显得有些单薄。仅靠开源策略和技术创新,很难在激烈的市场竞争中建立持续的优势。如何将技术优势转化为市场竞争力,如何建立可持续的商业模式,这些都是DeepSeek亟待解决的问题。与此同时,DeepSeek这一系列方法本身也被反馈到了开源社区中,显然后续还会有更多公司基于其技术和理论进一步向前发展。更重要的是,我们需要重新思考对AI技术创新的态度。在当前AI发展的热潮中,过度追捧某个特定产品或技术方案是非常危险的信号。技术发展是一个渐进的过程,需要在不断试错和改进中寻找最优解。过高的期待不仅可能给企业带来不必要的压力,还可能误导整个行业的发展方向。
图源:网络
正如DAIR.AI创始人Elvis所说的:“所有对DeepSeek-R1的阴谋论和过度解读都令人尴尬。我们应该回归DeepSeek-R1的学术和 AI 应用,从研究者的角度看到强化学习的价值,从开发者的角度看到更强的模型能力和本地模型场景。而不是让这些虚假的叙事蒙蔽了你的眼睛,使你错过了DeepSeek-R1所能带来的价值和机遇。开源研究和开源精神依然蓬勃发展。”这或许才是面对创新真正理性且审慎的态度——给予技术成长必要的时间和空间并专注于技术本身,而非在某种不知所以然的盲目对比中轻言胜负已分,或是将一次细分领域的技术演进与某种宏大叙事强行绑定。
对于DeepSeek而言,通过站在前人积累之上做出技术决策实现创新,本身就证明了其能力和价值。当下,整个开源社区的正面回应也肯定了这一正反馈的可行性。之后,其需要做的则是进一步拓宽其技术的衍生并不断深化研究成果。站在更宏观的角度而言,DeepSeek则更多证明了AI技术的竞争与创新尚未迎来终局。
整个行业的创新也绝非仅仅通过囤积算力、无限资金就能完全形成壁垒。这也为更多中小型创业公司重新点燃了希望,毕竟谁也不希望AI行业早早变成如互联网行业一样“赢家通吃”的垃圾时间。
原文标题 : DeepSeek真能超越美国AI界?