DeepSeek“朋友圈”再扩容:华为、京东相继加入 云计算、芯片、AI应用公司都来了

东方财富网

6小时前

GiteeAI联合沐曦于2月2日首发全套DeepSeek-R1千问蒸馏模型,实现了从芯片到平台,从算力到模型,全国产研发、中国制造。...“当下,主流国产芯片已基本实现对DeepSeek蒸馏版小模型的兼容支持。

随着DeepSeek热度飙升,其“朋友圈”也在快速扩容。

今日,京东云宣布正式上线DeepSeek-R1和DeepSeek-V3模型,支持公有云在线部署、专混私有化实例部署两种模式。前几日,阿里云、百度智能云、华为云、腾讯云、火山引擎、天翼云已接入了DeepSeek模型。海外的亚马逊AWS、微软Azure等云巨头同样官宣支持。

多家国产芯片厂商亦纷纷响应。华为今天宣布DeepSeek-R1、DeepSeek-V3、DeepSeek-V2、Janus-Pro上线昇腾社区;DeepSeek-V3满血版在国产沐曦GPU首发体验上线。天数智芯、摩尔线程、海光信息也在2月4日宣布支持DeepSeek模型。而英伟达、AMD、英特尔等海外芯片巨头在更早已完成支持。

此外,无问芯穹、硅基流动等AI基础设施厂商,以及青云科技、PPIO派欧云、云轴科技等独立云厂商,已宣布适配及上架模型服务。

从底层芯片到云服务商,随着DeepSeek朋友圈的扩大,有望进一步推动大模型的低成本化,扩大AI的垂直应用场景。

目前,华为小艺助手App的智能体广场已上线DeepSeek-R1的Beta版。科创板上市公司光云科技、当虹软件等也接入DeepSeek系列模型开展应用探索。

六大云巨头上线DeepSeek系列模型 推动开源生态发展

DeepSeek旗下大模型“爆火”后,国内主流云平台均陆续上线了相关模型。

今日,京东云言犀AI开发计算平台宣布支持DeepSeek-V3、DeepSeek-R1以及所有蒸馏小参数模型(DeepSeek-R1-Distill)的一键部署。

春节期间,华为云和硅基流动联合首发并上线了基于华为云昇腾云服务的DeepSeek-R1/V3推理服务。阿里、腾讯、百度、火山引擎等云厂商也上线了DeepSeek系列模型。其中,百度智能云还提出了限时免费的服务方案。至此,国内六大云巨头都已正式支持DeepSeek。

中国云平台集中上线DeepSeek,其背后是云厂商们希望在DeepSeek的火爆浪潮中,吸引更多客户使用其算力和服务。

AI产品榜的数据显示,DeepSeek仅上线18天时日活就突破1500万,而ChatGPT过1500万花了244天,增速是ChatGPT的13倍。上线20天后,DeepSeek日活已达2215万,是ChatGPT日活用户的41.6%,超过豆包的日活用户1695万。

云基础设施厂商有望受益于DeepSeek带来的新叙事,而DeepSeek的成功,也将提振整个开源社区的共建氛围,使得更多开源模型能够“站在巨人肩膀上”快速进步。

相比OpenAI的闭源路线,DeepSeek选择了开源的开放路线,这类似于PC时代的Windows和Linux之争。面对DeepSeek的爆火,OpenAI首席执行官萨姆·阿尔特曼此前承认称,OpenAI在开源策略上“站在了历史的错误一边”,并表示需要考虑制定不同的开源策略。

华泰证券认为,开源模型的优势体现在社区共建和技术共享。理论上所有的小参数模型均能够直接利用DeepSeek-R1蒸馏出的标签数据,来增强推理性能。2025年或是开源模型快速进步的一年,国产大模型进展值得关注。

主流国产芯片兼容支持 挑战和机遇并存

在芯片领域,DeepSeek-R1、DeepSeek-V3、DeepSeek-V2、Janus-Pro正式上线昇腾社区,支持一键获取DeepSeek系列模型,支持昇腾硬件平台上开箱即用,同时提供精度性能微调,推理服务化快速部署等能力,

摩尔线程也发文称,已实现对DeepSeek蒸馏模型推理服务的部署。为推进国产AI生态发展,摩尔线程即将开放自主设计的夸娥(KUAE)GPU智算集群,全面支持DeepSeek-V3、R1模型及新一代蒸馏模型的分布式部署。

天数智芯与Gitee AI成功完成了与DeepSeek-R1的适配工作,并且已正式上线多款大模型服务,其中包括DeepSeek-R1-Distill-Qwen-1.5B、DeepSeek-R1-Distill-Qwen-7B、DeepSeek-R1-Distill-Qwen-14B等。天数智芯还称,正在与并行科技、算力互联等多家伙伴,开展DeepSeek包括R1在内的多款模型的适配与上线,后续即将上线的并行科技平台,不仅面向普通用户和开发者,更是主要面向企业用户的AI服务平台。

Gitee AI联合沐曦于2月2日首发全套DeepSeek-R1千问蒸馏模型,实现了从芯片到平台,从算力到模型,全国产研发、中国制造。2月5日,Gitee AI进一步表示,DeepSeek-V3满血版在国产沐曦GPU首发体验上线。

海光信息也完成了DeepSeek V3和R1模型与海光DCU(深度计算单元)的适配,并正式上线。

此外,国家超算互联网平台已正式上线DeepSeek-R1模型的1.5B、7B、8B、14B版本,并将于近期陆续更新32B、70B等版本。除R1模型外,国家超算互联网平台还上线了DeepSeek-V3、DeepSeek-v2.5系列、DeepSeek-coder系列、DeepSeek-math系列(7b)和DeepSeek-v2系列(Lite)等模型。

DeepSeek大模型与国产芯片的适配基本不花时间,而性能优化估计一周完成。”有算力领域人士介绍。

“当下,主流国产芯片已基本实现对DeepSeek 蒸馏版小模型的兼容支持。这意味着,只要此前能够运行Llama、Qwen这类常见模型,如今便可直接无修改地运行DeepSeek蒸馏版小模型。”魔形智能联合创始人徐凌杰对记者表示,“可以预见,随着基于 DeepSeek的应用如雨后春笋般爆发,越来越多芯片厂商的入局,新一轮市场竞争与价格调整或许即将拉开帷幕。”

不过,徐凌杰也指出,满血版的V3和R1拥有6710亿参数,这使得它们对硬件的要求大幅提升。同时,由于采用了此前未被广泛应用的MoE专家并行(EP)策略,其运行需要额外的推理框架支持。

目前,仅有少数几家国产芯片成功上线了满血版。要想完全解锁DeepSeek高性能、低成本的推理优势,按照官方推荐配置,需在推理的解码部分部署320个GPU,以实现完全的专家并行。这种‘超节点’式的部署方式,对所有国产芯片厂商而言,既是全新的挑战,也是难得的机遇。”徐凌杰提到。

扩大AI的应用场景

谈及未来DeepSeek对国内AI产业链的利好影响,沐曦联合创始人杨建表示,最大的影响是强化学习的蒸馏流程开源,让大模型在垂直领域的后训练和推理成本急剧下降,同时在垂直领域的可用性急剧上升,同时催生大模型在各行各业的认知,拉升私有化垂直模型部署的愿望。R1蒸馏32B模型的能力逼近OpenAI的O1,使得企业可以私有化低成本部署而不用担心泄密问题,部署意愿极大提高。

TrendForce集邦咨询研究指出,DeepSeek模型虽然降低了AI训练成本,但AI模型的低成本化可望扩大应用场景,进而增加全球数据中心建置量。光收发模块作为数据中心互连的关键组件,将受惠于高速数据传输的需求。未来AI服务器之间的数据传输,都需要大量的高速光收发模块,这些模块负责将电信号转换为光信号并通过光纤传输,再将接收到的光信号转换回电信号。TrendForce数据显示,2023年400Gbps以上的光收发模块全球出货量为640万个,2024年约2040万个,预估至2025年将超过3190万个,年增长率达56.5%。

实际上从22-24年对大模型应用的风险投资在减少,今年可能会逆转。因为后训练成本急剧下降。”杨建对《科创板日报》表示。

随着DeepSeek带动模型成本的下降,有望推动AI应用的爆发。科创板上市公司光云科技当虹科技等都在探索DeepSeek模型的落地应用。其中,快麦小智是光云科技旗下智能客服机器人,其基于大模型的智能体产品绫智的多项业务场景和功能支持DeepSeek各个版本。光云科技方面称,将持续推动旗下AI产品与包括DeepSeek在内的大模型深度适配。

当虹科技BlackEye多模态视听大模型正式融合DeepSeek-R1和DeepSeek Janus Pro,并完成视听传媒、工业与卫星、车载智能座舱等多行业垂类场景的数据调优训练。

DeepSeek给AI应用带来更大的想象力,今日金山办公一度触及20cm涨停。不过《科创板日报》了解到,金山办公尚未与DeepSeek正式合作,有接近金山办公的人士对《科创板日报》记者表示,金山办公正在与Deepseek进行对接测试,未来是否合作要看后续发展

在研究层面,杨建预计,各大研究机构都会研究新技术来做预训练和后训练,加快新算法落地。“实际上DeepSeek使用的很多方法是高校研究成果的优秀集成,每年出现那么多新方法,究竟哪些组合才能产生最大产出和价值,可能有很多组合没有被发现,今年肯定有更多的算法创新爆发。DeepSeek只是一个星星之火的燃点。”

在人才方面,杨建判断,大模型应用人才培养会更受重视。2022-2024年聚集在少数企业,整体业界水平在萎缩。同时,2022-2024年高校并没有培养大模型应用人才。25年春节反应比较快的高校已经开始计划春季大模型应用人才培养,到秋天会覆盖数百所高校会跟随,今年全国有望培养大模型应用开发人才30-50万

(文章来源:科创板日报)

GiteeAI联合沐曦于2月2日首发全套DeepSeek-R1千问蒸馏模型,实现了从芯片到平台,从算力到模型,全国产研发、中国制造。...“当下,主流国产芯片已基本实现对DeepSeek蒸馏版小模型的兼容支持。

随着DeepSeek热度飙升,其“朋友圈”也在快速扩容。

今日,京东云宣布正式上线DeepSeek-R1和DeepSeek-V3模型,支持公有云在线部署、专混私有化实例部署两种模式。前几日,阿里云、百度智能云、华为云、腾讯云、火山引擎、天翼云已接入了DeepSeek模型。海外的亚马逊AWS、微软Azure等云巨头同样官宣支持。

多家国产芯片厂商亦纷纷响应。华为今天宣布DeepSeek-R1、DeepSeek-V3、DeepSeek-V2、Janus-Pro上线昇腾社区;DeepSeek-V3满血版在国产沐曦GPU首发体验上线。天数智芯、摩尔线程、海光信息也在2月4日宣布支持DeepSeek模型。而英伟达、AMD、英特尔等海外芯片巨头在更早已完成支持。

此外,无问芯穹、硅基流动等AI基础设施厂商,以及青云科技、PPIO派欧云、云轴科技等独立云厂商,已宣布适配及上架模型服务。

从底层芯片到云服务商,随着DeepSeek朋友圈的扩大,有望进一步推动大模型的低成本化,扩大AI的垂直应用场景。

目前,华为小艺助手App的智能体广场已上线DeepSeek-R1的Beta版。科创板上市公司光云科技、当虹软件等也接入DeepSeek系列模型开展应用探索。

六大云巨头上线DeepSeek系列模型 推动开源生态发展

DeepSeek旗下大模型“爆火”后,国内主流云平台均陆续上线了相关模型。

今日,京东云言犀AI开发计算平台宣布支持DeepSeek-V3、DeepSeek-R1以及所有蒸馏小参数模型(DeepSeek-R1-Distill)的一键部署。

春节期间,华为云和硅基流动联合首发并上线了基于华为云昇腾云服务的DeepSeek-R1/V3推理服务。阿里、腾讯、百度、火山引擎等云厂商也上线了DeepSeek系列模型。其中,百度智能云还提出了限时免费的服务方案。至此,国内六大云巨头都已正式支持DeepSeek。

中国云平台集中上线DeepSeek,其背后是云厂商们希望在DeepSeek的火爆浪潮中,吸引更多客户使用其算力和服务。

AI产品榜的数据显示,DeepSeek仅上线18天时日活就突破1500万,而ChatGPT过1500万花了244天,增速是ChatGPT的13倍。上线20天后,DeepSeek日活已达2215万,是ChatGPT日活用户的41.6%,超过豆包的日活用户1695万。

云基础设施厂商有望受益于DeepSeek带来的新叙事,而DeepSeek的成功,也将提振整个开源社区的共建氛围,使得更多开源模型能够“站在巨人肩膀上”快速进步。

相比OpenAI的闭源路线,DeepSeek选择了开源的开放路线,这类似于PC时代的Windows和Linux之争。面对DeepSeek的爆火,OpenAI首席执行官萨姆·阿尔特曼此前承认称,OpenAI在开源策略上“站在了历史的错误一边”,并表示需要考虑制定不同的开源策略。

华泰证券认为,开源模型的优势体现在社区共建和技术共享。理论上所有的小参数模型均能够直接利用DeepSeek-R1蒸馏出的标签数据,来增强推理性能。2025年或是开源模型快速进步的一年,国产大模型进展值得关注。

主流国产芯片兼容支持 挑战和机遇并存

在芯片领域,DeepSeek-R1、DeepSeek-V3、DeepSeek-V2、Janus-Pro正式上线昇腾社区,支持一键获取DeepSeek系列模型,支持昇腾硬件平台上开箱即用,同时提供精度性能微调,推理服务化快速部署等能力,

摩尔线程也发文称,已实现对DeepSeek蒸馏模型推理服务的部署。为推进国产AI生态发展,摩尔线程即将开放自主设计的夸娥(KUAE)GPU智算集群,全面支持DeepSeek-V3、R1模型及新一代蒸馏模型的分布式部署。

天数智芯与Gitee AI成功完成了与DeepSeek-R1的适配工作,并且已正式上线多款大模型服务,其中包括DeepSeek-R1-Distill-Qwen-1.5B、DeepSeek-R1-Distill-Qwen-7B、DeepSeek-R1-Distill-Qwen-14B等。天数智芯还称,正在与并行科技、算力互联等多家伙伴,开展DeepSeek包括R1在内的多款模型的适配与上线,后续即将上线的并行科技平台,不仅面向普通用户和开发者,更是主要面向企业用户的AI服务平台。

Gitee AI联合沐曦于2月2日首发全套DeepSeek-R1千问蒸馏模型,实现了从芯片到平台,从算力到模型,全国产研发、中国制造。2月5日,Gitee AI进一步表示,DeepSeek-V3满血版在国产沐曦GPU首发体验上线。

海光信息也完成了DeepSeek V3和R1模型与海光DCU(深度计算单元)的适配,并正式上线。

此外,国家超算互联网平台已正式上线DeepSeek-R1模型的1.5B、7B、8B、14B版本,并将于近期陆续更新32B、70B等版本。除R1模型外,国家超算互联网平台还上线了DeepSeek-V3、DeepSeek-v2.5系列、DeepSeek-coder系列、DeepSeek-math系列(7b)和DeepSeek-v2系列(Lite)等模型。

DeepSeek大模型与国产芯片的适配基本不花时间,而性能优化估计一周完成。”有算力领域人士介绍。

“当下,主流国产芯片已基本实现对DeepSeek 蒸馏版小模型的兼容支持。这意味着,只要此前能够运行Llama、Qwen这类常见模型,如今便可直接无修改地运行DeepSeek蒸馏版小模型。”魔形智能联合创始人徐凌杰对记者表示,“可以预见,随着基于 DeepSeek的应用如雨后春笋般爆发,越来越多芯片厂商的入局,新一轮市场竞争与价格调整或许即将拉开帷幕。”

不过,徐凌杰也指出,满血版的V3和R1拥有6710亿参数,这使得它们对硬件的要求大幅提升。同时,由于采用了此前未被广泛应用的MoE专家并行(EP)策略,其运行需要额外的推理框架支持。

目前,仅有少数几家国产芯片成功上线了满血版。要想完全解锁DeepSeek高性能、低成本的推理优势,按照官方推荐配置,需在推理的解码部分部署320个GPU,以实现完全的专家并行。这种‘超节点’式的部署方式,对所有国产芯片厂商而言,既是全新的挑战,也是难得的机遇。”徐凌杰提到。

扩大AI的应用场景

谈及未来DeepSeek对国内AI产业链的利好影响,沐曦联合创始人杨建表示,最大的影响是强化学习的蒸馏流程开源,让大模型在垂直领域的后训练和推理成本急剧下降,同时在垂直领域的可用性急剧上升,同时催生大模型在各行各业的认知,拉升私有化垂直模型部署的愿望。R1蒸馏32B模型的能力逼近OpenAI的O1,使得企业可以私有化低成本部署而不用担心泄密问题,部署意愿极大提高。

TrendForce集邦咨询研究指出,DeepSeek模型虽然降低了AI训练成本,但AI模型的低成本化可望扩大应用场景,进而增加全球数据中心建置量。光收发模块作为数据中心互连的关键组件,将受惠于高速数据传输的需求。未来AI服务器之间的数据传输,都需要大量的高速光收发模块,这些模块负责将电信号转换为光信号并通过光纤传输,再将接收到的光信号转换回电信号。TrendForce数据显示,2023年400Gbps以上的光收发模块全球出货量为640万个,2024年约2040万个,预估至2025年将超过3190万个,年增长率达56.5%。

实际上从22-24年对大模型应用的风险投资在减少,今年可能会逆转。因为后训练成本急剧下降。”杨建对《科创板日报》表示。

随着DeepSeek带动模型成本的下降,有望推动AI应用的爆发。科创板上市公司光云科技当虹科技等都在探索DeepSeek模型的落地应用。其中,快麦小智是光云科技旗下智能客服机器人,其基于大模型的智能体产品绫智的多项业务场景和功能支持DeepSeek各个版本。光云科技方面称,将持续推动旗下AI产品与包括DeepSeek在内的大模型深度适配。

当虹科技BlackEye多模态视听大模型正式融合DeepSeek-R1和DeepSeek Janus Pro,并完成视听传媒、工业与卫星、车载智能座舱等多行业垂类场景的数据调优训练。

DeepSeek给AI应用带来更大的想象力,今日金山办公一度触及20cm涨停。不过《科创板日报》了解到,金山办公尚未与DeepSeek正式合作,有接近金山办公的人士对《科创板日报》记者表示,金山办公正在与Deepseek进行对接测试,未来是否合作要看后续发展

在研究层面,杨建预计,各大研究机构都会研究新技术来做预训练和后训练,加快新算法落地。“实际上DeepSeek使用的很多方法是高校研究成果的优秀集成,每年出现那么多新方法,究竟哪些组合才能产生最大产出和价值,可能有很多组合没有被发现,今年肯定有更多的算法创新爆发。DeepSeek只是一个星星之火的燃点。”

在人才方面,杨建判断,大模型应用人才培养会更受重视。2022-2024年聚集在少数企业,整体业界水平在萎缩。同时,2022-2024年高校并没有培养大模型应用人才。25年春节反应比较快的高校已经开始计划春季大模型应用人才培养,到秋天会覆盖数百所高校会跟随,今年全国有望培养大模型应用开发人才30-50万

(文章来源:科创板日报)

展开
打开“财经头条”阅读更多精彩资讯
APP内打开