一场以DeepSeek为中心的人工智能巨型浪潮正在持续。如下图所示,人工智能指数已经处于历史最高位置。而和过去有所不同的是,相对几年前市场对算法(模型本身)、算力(基础设施)的重视,本轮的热情从一开始便和应用端强力粘结在一起,被很多研究者称为:人工智能+。本文认为,以深度求索最新大模型为代表的“新AI”时代来临,是造就这种趋势的关键。而如果无法及时跟上应用新AI,很可能会面临被快速淘汰的风险。
资本市场往往能够反映产业链的现实。纵观国内外头部机构的研报,前几年无不是将重点放在了AI算法和算力上。
逻辑很简单,算法是大模型的基础,性能优越的AI大模型才是各家头部企业所追求的重点,谁拥有了最强大的模型,谁就最有机会获得最大的市场份额。
算力则是优质大模型的基础。因为华尔街大型机构和硅谷高科技企业对一种被称为“规模扩张定律”的AI理论所强烈吸引,认为更高的算力基础设施,更多的训练数据,才能产生更高性能的大模型。而这看似高深莫测的理论。其实可以简化成,“花越多钱,才能拥有更好模型”,这么一句简单的话。
2023~2024年,不管是微软旗下的OpenAI还是谷歌的Gemini,无论是亚马逊重金支持的Anthropic还是马斯克xAI发布的Grok,全部需要天量的算力投入。亚马逊、谷歌母公司Alphabet、Meta和微软去年的资本支出接近2000亿美元,比两年前增长了70%以上,大多都是拜AI算力投入所赐。
最好的例子是入局还不久的xAI,最近推出的Grok 3能在短时间内性能达到当前全球的最顶尖水平,靠的是“短短三个月将数据中心容量翻倍”、“使用了20万个英伟达H100 GPU,”马斯克团队直言不讳。当然这一切的基础是马斯克顶级的个人财富和融资能力。
如果按照产业链路区分,从2022年OpenAI的ChatGPT大语言模型横空出世一直到整个2024年,资本市场和媒体焦点更多关注在上游算力和模型本身。然而,来自中国的深度求索所发布的DeepSeek-R1模型,却让事情有了变化。
此前有媒体报道,深度求索使用了英伟达的H800 AI芯片构建了R1大模型的算力基础,总花费不到600万美元,训练时间仅仅2个月。这一消息立刻引起了华尔街和世界各主要AI企业的惊叹,也引发了美国政府高层的震动。
当然,我们有理由推断,或许上述报道中的总成本和总时间是通过蒸馏技术获得R1模型的花费。这当然也是一种技术能力,因为DeepSeek-R1的蒸馏是将大语言模型的强大能力压缩到小型模型中,通过软标签、温度调整、多任务学习和中间层特征对齐等方法,R1能够在保持高性能的同时显著降低计算成本和资源需求。
高盛集团(Goldman Sachs)的高管们在农历春节期间发布的一集投资银行播客节目中表示,深度求索的人工智能模式对于应用端的各家企业来说,是非常好的消息,因为它可以大幅降低公司开发内部人工智能支持的产品和服务的成本。
由于深度求索通过优化模型结构(MLA+MOE、MTP)、模型训练方法(DualPipe)、针对性GPU优化等内容,降低了训练成本和计算成本,同时又实行开源,使得下游企业不管是通过本地部署或云端调用的成本大大降低。
无疑这种追求高性能下对成本极致控制的科技飞跃,就是深度求索真正厉害的地方,正印证了那句传统工业时代的老话:“生产力的创新除了更高的性能,还可以通过更低的价格产生。”
高盛投资银行的高管播客节目中说:“它(DeepSeek大模型)的模式具有成本效益。这对全世界来说都是一件好事,我们所有人都能在应用人工智能服务或者产品时候,享受到更便宜的价格。”
此外,DeepSeek支持用户进行所谓的“模型蒸馏”,这有望加速人工智能在应用端的进程,比如手机、平板等小型设备上未来就更方便部署。
纵观市面上主流券商的观点来总结:深度求索大模型将带来AI领域的应用端革命,在推动降本、强推理等驱动下,有望加速AI应用普及度迎来跨越式提升。
我们不妨将这种模式的AI称“新AI”,以区别于之前那些更加注重算力、价格更高、不开源的AI。
在新AI的背景下,应用端则成为了当下急迫的风口。
全面应用=全面风险
除了帮助个人用户提高办公效率以外,以DeepSeek-R1为代表的新AI的出现可以解决下游应用企业对构建人工智能工具成本的担忧,这反过来又可以为新的应用案例开辟道路。
人工智能+云计算服务是最先被想到的应用。云计算厂商可以利用类似DeepSeek-R1这样的模型和模式,以更低低成本复制先进模型并灵活商业化。
一种应用模式是云服务商可以将DeepSeek封装为API接口,供企业开发者调用以实现文本生成、图像识别等功能。另一种则可以是利用AI通过实时监控服务器负载、网络流量等指标,动态调整计算资源分配,从而降低能耗并提高利用率。
人工智能+金融则是另一个容易接触到普通人生活的应用场景。申万宏源的研报认为,AI能够在市场分析、智能投顾、金融问答、舆情监测与风控等环节,优化客户服务体验,金融从业人员也将建立Agent工作流以提高效率。
比如,银行可以利用新AI在客户服务效率和风险管理方面大大提高。人工智能可帮助银行构建全天候在线的智能客服系统,不仅可以回答客户的账户查询、贷款申请等基础问题,还能根据用户行为推荐理财产品。也可通过对历史交易记录、社交媒体数据等多源信息的综合分析,实时检测异常交易行为并预测违约风险。
券商高度依赖数据分析和市场洞察,而人工智能的大规模知识库和推理能力使其成为投研团队的得力助手。比如在投研方面,可以自动抓取全球金融市场动态、政策变化和公司财报,生成高质量的研究报告。而在投顾方面,基于客户的风险偏好和资产状况,AI还能够智能化地提供资产配置建议。
最后,人工智能+医疗也是最近频频被提及的新概念。医药行业长期以来面临研发周期长、成本高和技术门槛高的挑战。以DeepSeek大模型为首的新AI通过其强大的数据处理和分析能力,为药物发现、临床试验设计以及个性化治疗方案提供了全新解决方案。
比如AI能够快速分析海量生物医学文献和实验数据,识别潜在的药物靶点,并预测化合物的活性和毒性。还比如在基因组学研究中,AI可以解析患者的遗传信息,结合病历数据生成个性化的治疗建议。AI还能够辅助识别医学影像中的病灶。此外随着基因识别技术的发展,可以通过分析患者的基因数据,为其提供个性化的治疗方案。
以上仅仅是几大应用场景的宏观描述,新AI的应用前景还远不止于此。例如人工智能+教育(科研)、人工智能+机器人、人工智能+娱乐、人工智能+创意……各行各业,各种产品和服务,其实都是新AI的下一个“靶点”。
同时也反过来提醒各行各业,如果无法及时地应用上新AI快速提高效率,那么几乎顷刻间将面临被淘汰的风险。使用成本和难度都已经被拉到如此之低了,还不用就说不过去了。
长久以来困扰世界人工智能在应用端有更深入发展和更深度表现的一直都是数据、算力基础设施和计算能耗严重限制了模型本身的开发成本,导致下游企业没有办法及时开发出基于AI的各类应用。
2025年,以DeepSeek-R1为首的追求极致低成本下高性能和开源模式的新AI已经崛起,这意味着下游应用端的必然兴盛,也意味着一波“时代大洗牌”已经来临!
一场以DeepSeek为中心的人工智能巨型浪潮正在持续。如下图所示,人工智能指数已经处于历史最高位置。而和过去有所不同的是,相对几年前市场对算法(模型本身)、算力(基础设施)的重视,本轮的热情从一开始便和应用端强力粘结在一起,被很多研究者称为:人工智能+。本文认为,以深度求索最新大模型为代表的“新AI”时代来临,是造就这种趋势的关键。而如果无法及时跟上应用新AI,很可能会面临被快速淘汰的风险。
资本市场往往能够反映产业链的现实。纵观国内外头部机构的研报,前几年无不是将重点放在了AI算法和算力上。
逻辑很简单,算法是大模型的基础,性能优越的AI大模型才是各家头部企业所追求的重点,谁拥有了最强大的模型,谁就最有机会获得最大的市场份额。
算力则是优质大模型的基础。因为华尔街大型机构和硅谷高科技企业对一种被称为“规模扩张定律”的AI理论所强烈吸引,认为更高的算力基础设施,更多的训练数据,才能产生更高性能的大模型。而这看似高深莫测的理论。其实可以简化成,“花越多钱,才能拥有更好模型”,这么一句简单的话。
2023~2024年,不管是微软旗下的OpenAI还是谷歌的Gemini,无论是亚马逊重金支持的Anthropic还是马斯克xAI发布的Grok,全部需要天量的算力投入。亚马逊、谷歌母公司Alphabet、Meta和微软去年的资本支出接近2000亿美元,比两年前增长了70%以上,大多都是拜AI算力投入所赐。
最好的例子是入局还不久的xAI,最近推出的Grok 3能在短时间内性能达到当前全球的最顶尖水平,靠的是“短短三个月将数据中心容量翻倍”、“使用了20万个英伟达H100 GPU,”马斯克团队直言不讳。当然这一切的基础是马斯克顶级的个人财富和融资能力。
如果按照产业链路区分,从2022年OpenAI的ChatGPT大语言模型横空出世一直到整个2024年,资本市场和媒体焦点更多关注在上游算力和模型本身。然而,来自中国的深度求索所发布的DeepSeek-R1模型,却让事情有了变化。
此前有媒体报道,深度求索使用了英伟达的H800 AI芯片构建了R1大模型的算力基础,总花费不到600万美元,训练时间仅仅2个月。这一消息立刻引起了华尔街和世界各主要AI企业的惊叹,也引发了美国政府高层的震动。
当然,我们有理由推断,或许上述报道中的总成本和总时间是通过蒸馏技术获得R1模型的花费。这当然也是一种技术能力,因为DeepSeek-R1的蒸馏是将大语言模型的强大能力压缩到小型模型中,通过软标签、温度调整、多任务学习和中间层特征对齐等方法,R1能够在保持高性能的同时显著降低计算成本和资源需求。
高盛集团(Goldman Sachs)的高管们在农历春节期间发布的一集投资银行播客节目中表示,深度求索的人工智能模式对于应用端的各家企业来说,是非常好的消息,因为它可以大幅降低公司开发内部人工智能支持的产品和服务的成本。
由于深度求索通过优化模型结构(MLA+MOE、MTP)、模型训练方法(DualPipe)、针对性GPU优化等内容,降低了训练成本和计算成本,同时又实行开源,使得下游企业不管是通过本地部署或云端调用的成本大大降低。
无疑这种追求高性能下对成本极致控制的科技飞跃,就是深度求索真正厉害的地方,正印证了那句传统工业时代的老话:“生产力的创新除了更高的性能,还可以通过更低的价格产生。”
高盛投资银行的高管播客节目中说:“它(DeepSeek大模型)的模式具有成本效益。这对全世界来说都是一件好事,我们所有人都能在应用人工智能服务或者产品时候,享受到更便宜的价格。”
此外,DeepSeek支持用户进行所谓的“模型蒸馏”,这有望加速人工智能在应用端的进程,比如手机、平板等小型设备上未来就更方便部署。
纵观市面上主流券商的观点来总结:深度求索大模型将带来AI领域的应用端革命,在推动降本、强推理等驱动下,有望加速AI应用普及度迎来跨越式提升。
我们不妨将这种模式的AI称“新AI”,以区别于之前那些更加注重算力、价格更高、不开源的AI。
在新AI的背景下,应用端则成为了当下急迫的风口。
全面应用=全面风险
除了帮助个人用户提高办公效率以外,以DeepSeek-R1为代表的新AI的出现可以解决下游应用企业对构建人工智能工具成本的担忧,这反过来又可以为新的应用案例开辟道路。
人工智能+云计算服务是最先被想到的应用。云计算厂商可以利用类似DeepSeek-R1这样的模型和模式,以更低低成本复制先进模型并灵活商业化。
一种应用模式是云服务商可以将DeepSeek封装为API接口,供企业开发者调用以实现文本生成、图像识别等功能。另一种则可以是利用AI通过实时监控服务器负载、网络流量等指标,动态调整计算资源分配,从而降低能耗并提高利用率。
人工智能+金融则是另一个容易接触到普通人生活的应用场景。申万宏源的研报认为,AI能够在市场分析、智能投顾、金融问答、舆情监测与风控等环节,优化客户服务体验,金融从业人员也将建立Agent工作流以提高效率。
比如,银行可以利用新AI在客户服务效率和风险管理方面大大提高。人工智能可帮助银行构建全天候在线的智能客服系统,不仅可以回答客户的账户查询、贷款申请等基础问题,还能根据用户行为推荐理财产品。也可通过对历史交易记录、社交媒体数据等多源信息的综合分析,实时检测异常交易行为并预测违约风险。
券商高度依赖数据分析和市场洞察,而人工智能的大规模知识库和推理能力使其成为投研团队的得力助手。比如在投研方面,可以自动抓取全球金融市场动态、政策变化和公司财报,生成高质量的研究报告。而在投顾方面,基于客户的风险偏好和资产状况,AI还能够智能化地提供资产配置建议。
最后,人工智能+医疗也是最近频频被提及的新概念。医药行业长期以来面临研发周期长、成本高和技术门槛高的挑战。以DeepSeek大模型为首的新AI通过其强大的数据处理和分析能力,为药物发现、临床试验设计以及个性化治疗方案提供了全新解决方案。
比如AI能够快速分析海量生物医学文献和实验数据,识别潜在的药物靶点,并预测化合物的活性和毒性。还比如在基因组学研究中,AI可以解析患者的遗传信息,结合病历数据生成个性化的治疗建议。AI还能够辅助识别医学影像中的病灶。此外随着基因识别技术的发展,可以通过分析患者的基因数据,为其提供个性化的治疗方案。
以上仅仅是几大应用场景的宏观描述,新AI的应用前景还远不止于此。例如人工智能+教育(科研)、人工智能+机器人、人工智能+娱乐、人工智能+创意……各行各业,各种产品和服务,其实都是新AI的下一个“靶点”。
同时也反过来提醒各行各业,如果无法及时地应用上新AI快速提高效率,那么几乎顷刻间将面临被淘汰的风险。使用成本和难度都已经被拉到如此之低了,还不用就说不过去了。
长久以来困扰世界人工智能在应用端有更深入发展和更深度表现的一直都是数据、算力基础设施和计算能耗严重限制了模型本身的开发成本,导致下游企业没有办法及时开发出基于AI的各类应用。
2025年,以DeepSeek-R1为首的追求极致低成本下高性能和开源模式的新AI已经崛起,这意味着下游应用端的必然兴盛,也意味着一波“时代大洗牌”已经来临!