近日,随着DeepSeek的热潮席卷全球,人工智能竞赛也正式切换赛道进入"算法驱动算力"的深度博弈期,中国智算基础设施也正面临历史性转折,DeepSeek开源生态催生的算法革命,正在重构国产AI芯片的软硬协同范式。政策与技术的双重变量已按下产业升级快进键,推动智算建设从粗放堆砌向"效能跃迁"的战略转型,将成为未来三到五年检验中国智算体系竞争力的核心标尺。
中国智能计算中心(智算中心)在市场需求、技术演进、成本控制、商业模式以及建设方案等方面,都面临新的机遇与挑战。IDC圈将从以下几个方面进行深入分析:
DeepSeek日活全球第二,推理算力需求全面爆发
2023年,各路玩家竞相训练基础模型,但到2024年中期,由于前期算力投资过大导致投资回收期过长,许多大模型放缓了新模型训练计划,导致高端算力一度过剩。
但DeepSeek的横空出世迫使大模型公司估值重构,加速重构算力市场投资逻辑。据专业机构AI产品榜统计(2025/01/11-2025/1/31),仅包含应用(APP)全球iOS、海外GP、以及国内安卓市场,不含网站(Web),DeepSeek的MAU(月活)已经超过3370万,DAU(日活)达到2215万,成为全球日活总榜第二,仅次于第一名的ChatGPT(5323万)。也正因为此,春节后开工以来,大家使用DeepSeek收到的最多的回复就是“服务器繁忙,请稍后再试。”
这一现象也在一定程度上表明国产智能算力能力的不足,国产智算集群的高效建设运营仍需时日。预计随着生成式AI应用落地,推理算力需求将呈现爆发。Mate创始人扎克伯格和微软CEO萨提亚·纳德拉等业内巨头也强调,随着AI效率提高、易用性增强,企业对AI服务的需求将呈指数级增长。他们认为持续的大规模算力投入将成为保持竞争力的关键。
因此,进入2025年几大科技巨头资本开始均出现大幅上涨,其中谷歌、Meta都超过了50%,亚马逊则超过40%,其他科技大厂也均出现不同程度的上涨。
与此同时,随着AI应用下沉,企业还关注将推理部署到边缘以降低时延和带宽占用。运行大型模型的精简版本于本地设备已成为趋势,使服务更实时可靠,并降低云端压力。例如,DeepSeek-R1等新一代开源模型宣称实现小型化部署,能在笔记本乃至嵌入式设备运行强大的推理功能。这意味着智算中心不仅需提供云端算力,还可能扮演边缘AI的训练支撑与协同角色,为边缘设备提供预训练模型和更新支持。在未来,中心-边缘协同的计算架构将更普遍:中心负责训练大模型和复杂推理,边缘负责本地实时推理,两者共同满足企业的AI需求。
智算中心核心成本趋势及优化策略
智算中心作为大型数据中心的特殊形态,在选址规划、基础设施和能效优化等建设环节有其独特考量。未来3-5年,新技术和新要求将引导智算中心在建设层面实现升级,除选址、供电、冷却、网络架构以及能源效率优化方面之外,核心成本的趋势变化更值得关注。
智算中心的建设和运营成本主要包括硬件设备投资、能源消耗、冷却基础设施和日常维护等方面。未来3-5年,这些成本因素的趋势和优化策略如下:
硬件成本趋势:
构建智算中心需要大量高端CPU、GPU/TPU等加速器以及高速网络存储设备。随着半导体工艺提升和市场规模扩大,单位算力成本总体呈下降趋势,但尖端AI芯片仍价格不菲,且中美技术博弈可能影响进口高端GPU的供给。中国正推进国产AI芯片替代,以缓解成本和供应压力。然而,考虑到未来模型规模增长快于硬件性能提升,满足需求仍需要更多设备投入。例如,一个支持大模型训练和推理的智算中心配置1250台服务器,每年光折旧和电费运行成本就高达10亿元人民币。可见硬件投入和折旧是巨大的成本压力。未来如果采用Chiplet技术的国产加速器批量上市,有望降低采购成本并减少对受限进口器件的依赖。此外,硬件模块化设计也将流行,便于渐进扩容,避免一次性巨额投资。
能源与冷却成本:
智算中心由于大量使用GPU等高功耗芯片,能耗极为惊人。据报道,AI数据中心的耗电量可达传统CPU数据中心的4倍。电力成本在运营支出中占很大比例,甚至决定项目盈亏。因此能源价格走势直接影响智算中心成本结构。未来随着全球能源转型和碳排放约束,能源成本中枢可能上升,倒逼数据中心提升能效。冷却也是重要的耗能环节,传统风冷方式在高密度AI算力场景下效率有限,需要大量空调制冷功耗。为降低PUE,许多新建智算中心开始采用液冷或浸没式冷却(详见后文),短期投入增加但可换取长期电费的大幅节省。总体而言,能源成本将趋于上升,而先进冷却和能耗管理技术是主要的降本途径。
运维和管理成本:
智算中心的日常运营涉及人员、维护、网络带宽等花费。随着AI集群规模扩大,智能化运维将成为必然选择,通过自动化软件和AI运维系统降低人力成本。比如利用AI进行故障预测、流量调度,可以减少宕机损失和人工干预。此外,采用统一的云平台管理多租户资源,可以提升利用率、减少闲置,从而摊薄单位算力的运维开销。在网络成本方面,若大流量训练数据需要从远端传输,运营商专线费用不容忽视。未来可能通过分布式存储和边缘预处理来减少跨地域传输量,从而节约带宽成本。
大模型训练与推理的成本优化:
面对日益高昂的训练费用(据估算训练一个大型LLM模型电费可达数百万美元量级),各方都在寻求降本增效策略:
1.算法层面:正如前述,利用模型剪枝、量化来减少计算;采用更高效的优化器和并行算法(如优化的并行通信算法减少GPU等待时间)。这些都直接降低了完成同一任务所需的计算总量。例如微软的1-bit LAMB优化器将通信量降低4.6倍,可在多机情况下节省大量网络开销,从而节约时间和电力成本。
2.硬件层面:选用高能效比的芯片。例如最新一代GPU每瓦性能明显优于上一代,尽管购置贵但长期能耗省钱。也可以针对推理使用专用ASIC(如Edge TPU、Inferentia等)来降低成本和功耗。智算中心可能会区分训练集群和推理集群,训练用最高端GPU,推理则用成本更低的加速卡,从而优化整体投入产出比。
3.资源调度:通过云平台实现弹性算力供给。在训练高峰期动态扩容GPU实例,闲时降频或关机部分节点,避免不必要的能耗。先进的调度系统还能在电价低谷时执行耗能任务,在高峰时暂停,平滑电力开销。这种“削峰填谷”的策略需要和电网调度联动,以获得更低电价,降低运营成本。
4.复现和共享:越来越多企业选择不从零开始训练大模型,而是复现开源模型(如DeepSeek、LLaMA、ChatGLM等)进行微调。这大幅降低了计算量需求。例如开源LLM的普及使企业可以用几张GPU在智算中心完成定制微调,而不必像以前那样投入上千GPU训练基础模型。对于智算中心而言,这意味着单个任务的算力租用时长可能缩短,但任务数量会增多,因为更多中小企业也能承担微调所需的较小算力。因此运营方应调整计费模式,如提供更细粒度的按时计费或套餐,吸引这部分客户,提高整体设备利用率。
总之,智算中心建设与运营成本在未来几年会呈现硬件资本支出和能源成本持续攀升,形成了“高开高走”的局面。然而,通过技术进步和精细化管理,单位算力的平均成本有望实现“中间降”的趋势。例如,算法优化在突破模型或研发阶段不会降低对算力的需求,只有到应用阶段才会逐渐降低成本。行业竞争和规模效应也将迫使服务价格下降,推动运营方不断优化成本结构。那些能够在保证性能的前提下降低PUE、提升设备周转率的智算中心,将在激烈的市场竞争中获得优势。
智算中心的商业模式将在未来几年发生演变
智算中心作为算力服务的提供者,其商业模式和盈利逻辑将在未来几年发生演变,受开源生态、云服务模式以及算力需求变化等因素影响。
普惠红利、服务重构与算力突围:
随着DeepSeek-R1等开源模型的突然爆发,加之近年涌现了许多开源大模型(如BERT、Stable Diffusion、LLaMA系列等),这些模型性能接近商业产品且免费使用。这对智算中心的盈利模式产生两方面影响:
降低进入壁垒,扩大用户群:开源模型使得众多中小企业和开发者也能开展AI应用研发,但他们通常缺乏自有算力,于是会寻求智算中心的算力租赁来运行和微调这些模型。换言之,开源模型拓宽了市场蛋糕,长尾客户对算力服务的需求被激发出来,智算中心可以通过提供低成本、易用的算力来服务这一批量巨大的新客户,从而增加营收。
压缩高端服务溢价:以前少数巨头掌握顶尖模型,智算中心若能提供对这些模型的API服务,可收取高溢价(因为模型本身稀缺且有知识产权)。但开源模型普及后,算力提供逐渐同质化为纯算力比拼,难以因为“独家模型”而提价。因此智算中心需要转变思路,从卖模型转向卖算力和配套服务。在盈利模式上,更类似传统云计算的按性能/时长计费,而非按功能算法收费。这将倒逼运营商提高运营效率,以更低成本提供算力,否则利润空间会被压缩。
增值服务机会:尽管模型开源,但很多企业缺乏将其高效部署的能力。因此智算中心可以提供增值服务来创造收益,例如为客户优化开源模型(剪裁加速、部署优化)、提供预训练模型库和一键调用接口(即Model-as-a-Service,MaaS),甚至输出整套解决方案。这些增值部分可以成为新的利润点,部分弥补算力商品化导致的毛利下降。
云化转型、期货交易与生态聚合:
智算中心的发展与云计算密不可分。未来算力服务将更加云化、平台化:
1.云上智算:大型云服务商(如阿里云、腾讯云、华为云等)纷纷打造AI专属计算集群,通过云平台对外出租GPU/TPU算力和AI开发平台。这实际上将智算中心的功能与云结合,用户无需建设机房,只需在云端租用所需算力。这种AI即服务(AIaaS)模式降低了AI应用的门槛,被越来越多企业接受。对于智算中心运营方而言,可以与云厂商合作,将自身算力资源接入云市场出售,或者自行搭建云平台直销算力。无论哪种,服务模式从传统IDC租赁转向在线弹性租用是大势所趋。
2.算力即资源的租赁模式:除了按时按需租用,未来还可能出现算力期货、算力合约等金融化模式。比如企业可以预定未来多少算力以锁定成本,或在算力需求低谷时购买便宜的闲置算力。这类模式需要成熟的算力交易平台和标准计量,有望提高资源利用率。中国可能探索由政府或行业牵头建立算力交易市场,智算中心作为供给方可以挂单出让富余算力,需求方竞价获取,从而形成市场化定价机制。这将丰富智算中心的盈利渠道。
3.AI开发生态构建:云化的智算中心不只是卖原始算力,还会提供AI开发全流程支持,例如数据管理、模型训练调度、模型评估部署等一站式平台。这类似于提供AI研发生态(MLOps平台)服务,按项目或流水收费。通过将算力与软件结合,增强客户粘性和附加值。例如提供AutoML工具、预置算法库,使客户更高效地用掉算力,从而增加算力消耗、提高收入。
弹性调度、差异竞争与绿色协同:
面对未来算力需求的演变,中国智算中心需相应调整运营战略:
1.提升资源利用率:正如前述,目前部分智算中心存在资源闲置。运营方将更加重视提高上架率和利用率,通过引入多元用户、弹性计费来避免算力空转。同时采用先进的调度和虚拟化技术,将碎片化的算力拼租给不同用户,以“切片”形式提供服务,做到“闲时卖给小客户,忙时保障大项目”。
2.区域协同运营:在“东数西算”背景下,可能出现跨区域运营联盟。比如东部的数据需求峰值可以动态调度到西部算力中心处理。这需要运营商之间共享调度系统和收益分配机制,实现异地算力统一编排。这种协同有助于提升整体算力利用,并为客户提供更弹性的服务(按需调用全国算力)。运营商可能通过并购或联盟扩大覆盖范围,形成“一云多中心”的运营格局。
3.差异化定位:随着智算中心增多,差异化竞争显得重要。有的中心可能专注于训练型算力服务,提供超大规模GPU集群供企业训练前沿模型;有的则定位为推理服务平台,着重优化延迟和成本,托管大量线上推理请求;还有的结合本地产业成为行业算力中心,比如医疗AI计算中心、自动驾驶仿真中心等,提供垂直优化的软硬件环境。通过差异化,智算中心可以避开纯价格战,在细分领域形成品牌溢价。
4.绿色和社会效益:未来运营策略还需考虑 ESG(环境、社会、治理)因素。打造绿色低碳成为招揽客户和政府支持的卖点,智算中心可通过使用清洁能源、碳中和运营来获得政策优惠和社会认可。同时,通过为本地AI产业提供基础设施,带动就业和创新,也是争取政府资金支持的重要逻辑。因此,智算中心运营不再仅仅是商业利润考量,也涉及政策配合和社会价值创造,这将反映在其战略定位上。
未来中国智算中心将在商业模式上更加灵活多元,从单纯卖算力设备转向提供综合AI算力服务。开源大模型、云服务模式使算力服务趋于大众化和商品化,运营商唯有提升效率、增加附加服务才能获取稳健收益。同时,紧跟政策导向、强化合作共赢,将使智算中心在算力需求的浪潮中立于不败之地。
总之,展望未来3-5年,中国智算中心将在市场驱动下迅速发展,但同时面临技术革新和成本控制的多重挑战。从需求侧的大模型热潮、各行业上云用AI,到供给侧的新架构芯片、绿色能源方案,智算中心需要不断演进才能匹配时代要求。可以预计,经过这几年的探索,中国智算中心将逐步形成高效集约、技术先进、绿色低碳、商业多元的发展格局,成为支撑数字经济和AI产业腾飞的重要基石。各参与方唯有紧抓趋势、前瞻布局,方能在新一轮算力竞赛中取得领先地位。
参考文献:
1.LightReading – China"s hectic AI rollout has left data centers idling
2.FanaticalFuturist – China plans 50% boost in national computing power by 2025
3.ThinkView – Analysis of the size of the Intelligent Computing Power Market in 2024
4.The Register – China’s drive for efficient datacenters has made liquid cooling mainstream
5.Synopsys – 50% of New HPC Chip Designs Will Be Multi-Die in 2025
6.The Register – Chinese RISC-V project teases 2025 debut of advanced chip
7.Datafloq – How to Optimize Data Center Energy Efficiency With AI
8.RPower – Optimizing energy usage within data centers with AI
9.AI+ – Chinese Cities Subsidize AI Computing Power
10.Microsoft Research – DeepSpeed: Accelerating large-scale model inference
11.NVIDIA – Structured Sparsity in Ampere Architecture
12.Modular – Leveraging KV Caches for Faster Response Times
……
————————·————————
Digital Infrastructure Technology Expo(数字基础设施科技展,DITE)2025即将于2025年4月23日至29日在新加坡滨海湾金沙展览与会议中心盛大召开。本届DITE与全球信息技术展览会(GITEX Global)同期同地举行,由中国国际服务贸易交易会与数字基础设施技术委员会(DITC)联合主办、中国国际服务贸易交易会计算机电信专题与中国IDC圈承办,旨在为我国数字产业出海搭建一条技术展示、合作沟通、产业交流的桥梁。
日程安排
展览交流会
产业交流会(4月23日):
中国·东南亚地区数字基础设施合作交流会
规模:150人
展览(4月23日-25日):
数字基础设施科技展
会展咨询:
李女士:
+86 13693541767
linda.li@idcquan.com
张女士:
+86 18301162872
letty.z@idcquan.com
企业俱乐部参访活动
企业俱乐部参访活动(4月24日-29日):
全球数字基础设施高质量发展·东南亚站
活动联系人:
岳女士+86 157 2662 8423
胡女士+86 131 6129 1163
邮箱:vip@idcquan.com
近日,随着DeepSeek的热潮席卷全球,人工智能竞赛也正式切换赛道进入"算法驱动算力"的深度博弈期,中国智算基础设施也正面临历史性转折,DeepSeek开源生态催生的算法革命,正在重构国产AI芯片的软硬协同范式。政策与技术的双重变量已按下产业升级快进键,推动智算建设从粗放堆砌向"效能跃迁"的战略转型,将成为未来三到五年检验中国智算体系竞争力的核心标尺。
中国智能计算中心(智算中心)在市场需求、技术演进、成本控制、商业模式以及建设方案等方面,都面临新的机遇与挑战。IDC圈将从以下几个方面进行深入分析:
DeepSeek日活全球第二,推理算力需求全面爆发
2023年,各路玩家竞相训练基础模型,但到2024年中期,由于前期算力投资过大导致投资回收期过长,许多大模型放缓了新模型训练计划,导致高端算力一度过剩。
但DeepSeek的横空出世迫使大模型公司估值重构,加速重构算力市场投资逻辑。据专业机构AI产品榜统计(2025/01/11-2025/1/31),仅包含应用(APP)全球iOS、海外GP、以及国内安卓市场,不含网站(Web),DeepSeek的MAU(月活)已经超过3370万,DAU(日活)达到2215万,成为全球日活总榜第二,仅次于第一名的ChatGPT(5323万)。也正因为此,春节后开工以来,大家使用DeepSeek收到的最多的回复就是“服务器繁忙,请稍后再试。”
这一现象也在一定程度上表明国产智能算力能力的不足,国产智算集群的高效建设运营仍需时日。预计随着生成式AI应用落地,推理算力需求将呈现爆发。Mate创始人扎克伯格和微软CEO萨提亚·纳德拉等业内巨头也强调,随着AI效率提高、易用性增强,企业对AI服务的需求将呈指数级增长。他们认为持续的大规模算力投入将成为保持竞争力的关键。
因此,进入2025年几大科技巨头资本开始均出现大幅上涨,其中谷歌、Meta都超过了50%,亚马逊则超过40%,其他科技大厂也均出现不同程度的上涨。
与此同时,随着AI应用下沉,企业还关注将推理部署到边缘以降低时延和带宽占用。运行大型模型的精简版本于本地设备已成为趋势,使服务更实时可靠,并降低云端压力。例如,DeepSeek-R1等新一代开源模型宣称实现小型化部署,能在笔记本乃至嵌入式设备运行强大的推理功能。这意味着智算中心不仅需提供云端算力,还可能扮演边缘AI的训练支撑与协同角色,为边缘设备提供预训练模型和更新支持。在未来,中心-边缘协同的计算架构将更普遍:中心负责训练大模型和复杂推理,边缘负责本地实时推理,两者共同满足企业的AI需求。
智算中心核心成本趋势及优化策略
智算中心作为大型数据中心的特殊形态,在选址规划、基础设施和能效优化等建设环节有其独特考量。未来3-5年,新技术和新要求将引导智算中心在建设层面实现升级,除选址、供电、冷却、网络架构以及能源效率优化方面之外,核心成本的趋势变化更值得关注。
智算中心的建设和运营成本主要包括硬件设备投资、能源消耗、冷却基础设施和日常维护等方面。未来3-5年,这些成本因素的趋势和优化策略如下:
硬件成本趋势:
构建智算中心需要大量高端CPU、GPU/TPU等加速器以及高速网络存储设备。随着半导体工艺提升和市场规模扩大,单位算力成本总体呈下降趋势,但尖端AI芯片仍价格不菲,且中美技术博弈可能影响进口高端GPU的供给。中国正推进国产AI芯片替代,以缓解成本和供应压力。然而,考虑到未来模型规模增长快于硬件性能提升,满足需求仍需要更多设备投入。例如,一个支持大模型训练和推理的智算中心配置1250台服务器,每年光折旧和电费运行成本就高达10亿元人民币。可见硬件投入和折旧是巨大的成本压力。未来如果采用Chiplet技术的国产加速器批量上市,有望降低采购成本并减少对受限进口器件的依赖。此外,硬件模块化设计也将流行,便于渐进扩容,避免一次性巨额投资。
能源与冷却成本:
智算中心由于大量使用GPU等高功耗芯片,能耗极为惊人。据报道,AI数据中心的耗电量可达传统CPU数据中心的4倍。电力成本在运营支出中占很大比例,甚至决定项目盈亏。因此能源价格走势直接影响智算中心成本结构。未来随着全球能源转型和碳排放约束,能源成本中枢可能上升,倒逼数据中心提升能效。冷却也是重要的耗能环节,传统风冷方式在高密度AI算力场景下效率有限,需要大量空调制冷功耗。为降低PUE,许多新建智算中心开始采用液冷或浸没式冷却(详见后文),短期投入增加但可换取长期电费的大幅节省。总体而言,能源成本将趋于上升,而先进冷却和能耗管理技术是主要的降本途径。
运维和管理成本:
智算中心的日常运营涉及人员、维护、网络带宽等花费。随着AI集群规模扩大,智能化运维将成为必然选择,通过自动化软件和AI运维系统降低人力成本。比如利用AI进行故障预测、流量调度,可以减少宕机损失和人工干预。此外,采用统一的云平台管理多租户资源,可以提升利用率、减少闲置,从而摊薄单位算力的运维开销。在网络成本方面,若大流量训练数据需要从远端传输,运营商专线费用不容忽视。未来可能通过分布式存储和边缘预处理来减少跨地域传输量,从而节约带宽成本。
大模型训练与推理的成本优化:
面对日益高昂的训练费用(据估算训练一个大型LLM模型电费可达数百万美元量级),各方都在寻求降本增效策略:
1.算法层面:正如前述,利用模型剪枝、量化来减少计算;采用更高效的优化器和并行算法(如优化的并行通信算法减少GPU等待时间)。这些都直接降低了完成同一任务所需的计算总量。例如微软的1-bit LAMB优化器将通信量降低4.6倍,可在多机情况下节省大量网络开销,从而节约时间和电力成本。
2.硬件层面:选用高能效比的芯片。例如最新一代GPU每瓦性能明显优于上一代,尽管购置贵但长期能耗省钱。也可以针对推理使用专用ASIC(如Edge TPU、Inferentia等)来降低成本和功耗。智算中心可能会区分训练集群和推理集群,训练用最高端GPU,推理则用成本更低的加速卡,从而优化整体投入产出比。
3.资源调度:通过云平台实现弹性算力供给。在训练高峰期动态扩容GPU实例,闲时降频或关机部分节点,避免不必要的能耗。先进的调度系统还能在电价低谷时执行耗能任务,在高峰时暂停,平滑电力开销。这种“削峰填谷”的策略需要和电网调度联动,以获得更低电价,降低运营成本。
4.复现和共享:越来越多企业选择不从零开始训练大模型,而是复现开源模型(如DeepSeek、LLaMA、ChatGLM等)进行微调。这大幅降低了计算量需求。例如开源LLM的普及使企业可以用几张GPU在智算中心完成定制微调,而不必像以前那样投入上千GPU训练基础模型。对于智算中心而言,这意味着单个任务的算力租用时长可能缩短,但任务数量会增多,因为更多中小企业也能承担微调所需的较小算力。因此运营方应调整计费模式,如提供更细粒度的按时计费或套餐,吸引这部分客户,提高整体设备利用率。
总之,智算中心建设与运营成本在未来几年会呈现硬件资本支出和能源成本持续攀升,形成了“高开高走”的局面。然而,通过技术进步和精细化管理,单位算力的平均成本有望实现“中间降”的趋势。例如,算法优化在突破模型或研发阶段不会降低对算力的需求,只有到应用阶段才会逐渐降低成本。行业竞争和规模效应也将迫使服务价格下降,推动运营方不断优化成本结构。那些能够在保证性能的前提下降低PUE、提升设备周转率的智算中心,将在激烈的市场竞争中获得优势。
智算中心的商业模式将在未来几年发生演变
智算中心作为算力服务的提供者,其商业模式和盈利逻辑将在未来几年发生演变,受开源生态、云服务模式以及算力需求变化等因素影响。
普惠红利、服务重构与算力突围:
随着DeepSeek-R1等开源模型的突然爆发,加之近年涌现了许多开源大模型(如BERT、Stable Diffusion、LLaMA系列等),这些模型性能接近商业产品且免费使用。这对智算中心的盈利模式产生两方面影响:
降低进入壁垒,扩大用户群:开源模型使得众多中小企业和开发者也能开展AI应用研发,但他们通常缺乏自有算力,于是会寻求智算中心的算力租赁来运行和微调这些模型。换言之,开源模型拓宽了市场蛋糕,长尾客户对算力服务的需求被激发出来,智算中心可以通过提供低成本、易用的算力来服务这一批量巨大的新客户,从而增加营收。
压缩高端服务溢价:以前少数巨头掌握顶尖模型,智算中心若能提供对这些模型的API服务,可收取高溢价(因为模型本身稀缺且有知识产权)。但开源模型普及后,算力提供逐渐同质化为纯算力比拼,难以因为“独家模型”而提价。因此智算中心需要转变思路,从卖模型转向卖算力和配套服务。在盈利模式上,更类似传统云计算的按性能/时长计费,而非按功能算法收费。这将倒逼运营商提高运营效率,以更低成本提供算力,否则利润空间会被压缩。
增值服务机会:尽管模型开源,但很多企业缺乏将其高效部署的能力。因此智算中心可以提供增值服务来创造收益,例如为客户优化开源模型(剪裁加速、部署优化)、提供预训练模型库和一键调用接口(即Model-as-a-Service,MaaS),甚至输出整套解决方案。这些增值部分可以成为新的利润点,部分弥补算力商品化导致的毛利下降。
云化转型、期货交易与生态聚合:
智算中心的发展与云计算密不可分。未来算力服务将更加云化、平台化:
1.云上智算:大型云服务商(如阿里云、腾讯云、华为云等)纷纷打造AI专属计算集群,通过云平台对外出租GPU/TPU算力和AI开发平台。这实际上将智算中心的功能与云结合,用户无需建设机房,只需在云端租用所需算力。这种AI即服务(AIaaS)模式降低了AI应用的门槛,被越来越多企业接受。对于智算中心运营方而言,可以与云厂商合作,将自身算力资源接入云市场出售,或者自行搭建云平台直销算力。无论哪种,服务模式从传统IDC租赁转向在线弹性租用是大势所趋。
2.算力即资源的租赁模式:除了按时按需租用,未来还可能出现算力期货、算力合约等金融化模式。比如企业可以预定未来多少算力以锁定成本,或在算力需求低谷时购买便宜的闲置算力。这类模式需要成熟的算力交易平台和标准计量,有望提高资源利用率。中国可能探索由政府或行业牵头建立算力交易市场,智算中心作为供给方可以挂单出让富余算力,需求方竞价获取,从而形成市场化定价机制。这将丰富智算中心的盈利渠道。
3.AI开发生态构建:云化的智算中心不只是卖原始算力,还会提供AI开发全流程支持,例如数据管理、模型训练调度、模型评估部署等一站式平台。这类似于提供AI研发生态(MLOps平台)服务,按项目或流水收费。通过将算力与软件结合,增强客户粘性和附加值。例如提供AutoML工具、预置算法库,使客户更高效地用掉算力,从而增加算力消耗、提高收入。
弹性调度、差异竞争与绿色协同:
面对未来算力需求的演变,中国智算中心需相应调整运营战略:
1.提升资源利用率:正如前述,目前部分智算中心存在资源闲置。运营方将更加重视提高上架率和利用率,通过引入多元用户、弹性计费来避免算力空转。同时采用先进的调度和虚拟化技术,将碎片化的算力拼租给不同用户,以“切片”形式提供服务,做到“闲时卖给小客户,忙时保障大项目”。
2.区域协同运营:在“东数西算”背景下,可能出现跨区域运营联盟。比如东部的数据需求峰值可以动态调度到西部算力中心处理。这需要运营商之间共享调度系统和收益分配机制,实现异地算力统一编排。这种协同有助于提升整体算力利用,并为客户提供更弹性的服务(按需调用全国算力)。运营商可能通过并购或联盟扩大覆盖范围,形成“一云多中心”的运营格局。
3.差异化定位:随着智算中心增多,差异化竞争显得重要。有的中心可能专注于训练型算力服务,提供超大规模GPU集群供企业训练前沿模型;有的则定位为推理服务平台,着重优化延迟和成本,托管大量线上推理请求;还有的结合本地产业成为行业算力中心,比如医疗AI计算中心、自动驾驶仿真中心等,提供垂直优化的软硬件环境。通过差异化,智算中心可以避开纯价格战,在细分领域形成品牌溢价。
4.绿色和社会效益:未来运营策略还需考虑 ESG(环境、社会、治理)因素。打造绿色低碳成为招揽客户和政府支持的卖点,智算中心可通过使用清洁能源、碳中和运营来获得政策优惠和社会认可。同时,通过为本地AI产业提供基础设施,带动就业和创新,也是争取政府资金支持的重要逻辑。因此,智算中心运营不再仅仅是商业利润考量,也涉及政策配合和社会价值创造,这将反映在其战略定位上。
未来中国智算中心将在商业模式上更加灵活多元,从单纯卖算力设备转向提供综合AI算力服务。开源大模型、云服务模式使算力服务趋于大众化和商品化,运营商唯有提升效率、增加附加服务才能获取稳健收益。同时,紧跟政策导向、强化合作共赢,将使智算中心在算力需求的浪潮中立于不败之地。
总之,展望未来3-5年,中国智算中心将在市场驱动下迅速发展,但同时面临技术革新和成本控制的多重挑战。从需求侧的大模型热潮、各行业上云用AI,到供给侧的新架构芯片、绿色能源方案,智算中心需要不断演进才能匹配时代要求。可以预计,经过这几年的探索,中国智算中心将逐步形成高效集约、技术先进、绿色低碳、商业多元的发展格局,成为支撑数字经济和AI产业腾飞的重要基石。各参与方唯有紧抓趋势、前瞻布局,方能在新一轮算力竞赛中取得领先地位。
参考文献:
1.LightReading – China"s hectic AI rollout has left data centers idling
2.FanaticalFuturist – China plans 50% boost in national computing power by 2025
3.ThinkView – Analysis of the size of the Intelligent Computing Power Market in 2024
4.The Register – China’s drive for efficient datacenters has made liquid cooling mainstream
5.Synopsys – 50% of New HPC Chip Designs Will Be Multi-Die in 2025
6.The Register – Chinese RISC-V project teases 2025 debut of advanced chip
7.Datafloq – How to Optimize Data Center Energy Efficiency With AI
8.RPower – Optimizing energy usage within data centers with AI
9.AI+ – Chinese Cities Subsidize AI Computing Power
10.Microsoft Research – DeepSpeed: Accelerating large-scale model inference
11.NVIDIA – Structured Sparsity in Ampere Architecture
12.Modular – Leveraging KV Caches for Faster Response Times
……
————————·————————
Digital Infrastructure Technology Expo(数字基础设施科技展,DITE)2025即将于2025年4月23日至29日在新加坡滨海湾金沙展览与会议中心盛大召开。本届DITE与全球信息技术展览会(GITEX Global)同期同地举行,由中国国际服务贸易交易会与数字基础设施技术委员会(DITC)联合主办、中国国际服务贸易交易会计算机电信专题与中国IDC圈承办,旨在为我国数字产业出海搭建一条技术展示、合作沟通、产业交流的桥梁。
日程安排
展览交流会
产业交流会(4月23日):
中国·东南亚地区数字基础设施合作交流会
规模:150人
展览(4月23日-25日):
数字基础设施科技展
会展咨询:
李女士:
+86 13693541767
linda.li@idcquan.com
张女士:
+86 18301162872
letty.z@idcquan.com
企业俱乐部参访活动
企业俱乐部参访活动(4月24日-29日):
全球数字基础设施高质量发展·东南亚站
活动联系人:
岳女士+86 157 2662 8423
胡女士+86 131 6129 1163
邮箱:vip@idcquan.com