芝能智芯出品
《麦肯锡 2025 年技术趋势展望》作为年度技术趋势报告,聚焦 2025 年对企业最具影响力的前沿技术突破,深入剖析了 13 项 “关键” 技术趋势及其对各行业的潜在影响。
这些趋势被归为 “AI 革命”“计算与连接前沿”“尖端工程” 三大领域,不仅涵盖了人工智能、半导体、机器人等核心技术,围绕技术融合(如 AI 与其他趋势的结合)带来的新可能。
其中第三项技术就是应用专用半导体(Application-Specific Semiconductors, ASSC)成为全球算力生态的关键支柱。
无论是定制化AI训练芯片、面向推理的ASIC加速器,还是集成硅光子技术的新一代互联架构,ASSC通过更高的计算密度、更低的能耗和更强的软硬协同能力,为人工智能、数据中心和先进通信系统提供基础动力。
与此同时,技术巨头的自研芯片战略、HBM产能瓶颈、区域制造战略和人才缺口等因素正深刻改变这一产业的竞争格局。
本文将从技术演进与供应链变革两个角度,探讨应用专用半导体在2025年前后的技术价值、发展趋势与现实挑战。
Part 1技术转变:从通用架构到专用芯片系统
在AI大模型与高性能计算主导的新技术周期中,传统以CPU为核心的通用架构正逐步被专为特定任务优化的芯片架构所取代。
GPU、ASIC、TPU、NPU等各类应用专用半导体,正在为特定计算场景——如AI训练、推理、图像渲染、数据流处理——提供更高效的性能和更低的能耗。
以AI训练为例,主流GPU芯片采用高度并行的流处理单元架构,可同时处理海量矩阵乘法与张量运算。
通过HBM3高带宽内存与先进封装技术(如TSMC的COWOS-L),将多颗计算芯片与存储芯片集成于同一基板中,提升了单卡带宽至10TB/s以上,显著加快了模型训练速度。
而在推理阶段,以ASIC为基础的AI加速器则被广泛采用。这类芯片利用专用逻辑路径与定制控制单元,可在单位功耗下完成更高频次的推理调用,提升效率并降低数据中心运营成本。
硅光子技术也在逐步进入ASSC设计,特别是在超大规模互联的场景中。以Marvell的3D硅光子引擎为例,其芯片内部集成了32路电光通道,每路带宽200Gbps,总带宽达6.4Tbps,突破了传统电互联带宽瓶颈。
此外,该方案通过在芯片内集成TIA和驱动器等模拟前端模块,实现了更高的集成度和更低的比特成本,为构建大规模AI集群中的低延迟通信提供了可能。
而大型云服务商如亚马逊、谷歌、微软也开始走上自研芯片道路:
◎AWS的Trainium3与Inf2分别针对训练与推理做了硬件优化;◎谷歌第七代TPU“铁木”在算力与HBM容量上均提升5倍以上;◎微软的Maia 100将AI服务优化贯穿从芯片、系统到平台的全流程。
自研芯片的背后,是大型AI公司对控制算力能力、提升系统协同效率、降低对第三方芯片依赖的明确意图。
ASSC的发展不仅体现在核心计算芯片,还包括整个系统层次的协同,如HBM带宽、片上互联、热设计功耗(TDP)、封装架构(例如chiplet和2.5D封装)、冷却系统等。
因此,ASSC不再仅是单颗芯片的性能优化,而是构建一个完整、系统级优化的异构计算平台。
ASSC正以专用设计驱动AI性能革命,GPU+HBM3+高带宽封装成为当下主流,而ASIC、硅光子互联与软件栈深度整合则构成下一阶段创新的核心。
未来,计算架构的差异化将不再取决于CPU频率的高低,而是专用芯片在场景适配性、系统耦合效率和能耗控制上的综合竞争力。
Part 2产业变局:供应链、资本与人才的重塑
技术进步推动市场扩容,而市场扩容又不断倒逼产业链重构。
在应用专用半导体成为主力芯片的背景下,整个半导体生态系统——从设计、封装、制造、到分销与部署——正在经历深刻的地缘政治、资本结构与人才供需变化。制造端的供应链风险。
由于AI芯片大量依赖HBM、高阶封装、EUV光刻等尖端制造工艺,目前生产能力仍集中在少数几家亚洲厂商手中,如三星、SK海力士和台积电。
在2024年,HBM需求爆发导致美光几乎全年售罄,其2025年产能也已提前锁定。这意味着一旦其中某个环节产能受限,将严重影响AI芯片整体交付能力。
高端AI芯片,如Nvidia Blackwell、AMD Instinct或云厂商自研芯片,普遍依赖台积电的COWOS-L或先进chiplet封装,进一步增加了单点制造依赖的风险。
为缓解这种风险,全球主要经济体加快推进本地制造布局。
◎台积电宣布将在美国亚利桑那州投资高达1650亿美元,用于建设3座晶圆厂、2座先进封装厂和一个研发中心。◎英特尔则强化IDM 2.0战略,在欧洲、美国建厂并开放代工服务,试图重塑其在全球供应链中的角色。欧美的政策推动(如CHIPS Act)正在加速“本地化+安全”的供应链新模式,但这些建设需要至少3-5年周期,短期内仍需依赖东亚核心制造能力。
资本与创新的双轮驱动。
2024年,ASSC相关企业的私募和公开融资金额达到75亿美元,同比增幅超过22%。同时,芯片设计相关专利申请数在所有技术领域中排名第一,增速最快。
全球范围内,围绕AI芯片和数据中心加速器的并购与投资也持续升温。除传统IDM厂商外,初创公司如Cerebras、Groq、SambaNova等亦在小型数据中心加速器市场崭露头角。这些公司采用超大单芯片、超低延迟互联结构等差异化设计,避免与Nvidia等巨头正面竞争。
人才结构的紧张局势。数据显示,围绕GPU架构、机器学习、高性能计算的工程岗位招聘需求从2023年至2024年增长显著,而具备这些技能的人才供给严重不足。
在机器学习、GPU系统架构、固件与C++并发开发领域,平均人才供需比不足0.2:1。即便是AI基础软件工程师,也出现了招聘岗位远超市场供给的趋势。这直接推高了人才争夺战的门槛,也影响了初创企业在专用芯片开发中的推进速度。
应用专用半导体在产业层面面临制造依赖、资本分层、人才紧缺三大挑战。
◎短期内,亚洲制造仍是核心保障;◎中期来看,本地化建厂与软件硬件协同创新将主导市场格局;◎长期而言,谁掌握软硬件一体化和系统级优化能力,谁就能主导下一轮AI计算革命。
小结
2025年之后,应用专用半导体是人工智能、大规模计算、自动驾驶、通信基础设施等领域的“必需品”,我们应将视角从单一芯片性能转向系统层级的集成优化,从成本导向走向长期可持续性设计,从垂直采购走向软硬共研、算力协同。
原文标题 : 麦肯锡2025年技术展望:应用专用半导体成为全球科技必争之地
芝能智芯出品
《麦肯锡 2025 年技术趋势展望》作为年度技术趋势报告,聚焦 2025 年对企业最具影响力的前沿技术突破,深入剖析了 13 项 “关键” 技术趋势及其对各行业的潜在影响。
这些趋势被归为 “AI 革命”“计算与连接前沿”“尖端工程” 三大领域,不仅涵盖了人工智能、半导体、机器人等核心技术,围绕技术融合(如 AI 与其他趋势的结合)带来的新可能。
其中第三项技术就是应用专用半导体(Application-Specific Semiconductors, ASSC)成为全球算力生态的关键支柱。
无论是定制化AI训练芯片、面向推理的ASIC加速器,还是集成硅光子技术的新一代互联架构,ASSC通过更高的计算密度、更低的能耗和更强的软硬协同能力,为人工智能、数据中心和先进通信系统提供基础动力。
与此同时,技术巨头的自研芯片战略、HBM产能瓶颈、区域制造战略和人才缺口等因素正深刻改变这一产业的竞争格局。
本文将从技术演进与供应链变革两个角度,探讨应用专用半导体在2025年前后的技术价值、发展趋势与现实挑战。
Part 1技术转变:从通用架构到专用芯片系统
在AI大模型与高性能计算主导的新技术周期中,传统以CPU为核心的通用架构正逐步被专为特定任务优化的芯片架构所取代。
GPU、ASIC、TPU、NPU等各类应用专用半导体,正在为特定计算场景——如AI训练、推理、图像渲染、数据流处理——提供更高效的性能和更低的能耗。
以AI训练为例,主流GPU芯片采用高度并行的流处理单元架构,可同时处理海量矩阵乘法与张量运算。
通过HBM3高带宽内存与先进封装技术(如TSMC的COWOS-L),将多颗计算芯片与存储芯片集成于同一基板中,提升了单卡带宽至10TB/s以上,显著加快了模型训练速度。
而在推理阶段,以ASIC为基础的AI加速器则被广泛采用。这类芯片利用专用逻辑路径与定制控制单元,可在单位功耗下完成更高频次的推理调用,提升效率并降低数据中心运营成本。
硅光子技术也在逐步进入ASSC设计,特别是在超大规模互联的场景中。以Marvell的3D硅光子引擎为例,其芯片内部集成了32路电光通道,每路带宽200Gbps,总带宽达6.4Tbps,突破了传统电互联带宽瓶颈。
此外,该方案通过在芯片内集成TIA和驱动器等模拟前端模块,实现了更高的集成度和更低的比特成本,为构建大规模AI集群中的低延迟通信提供了可能。
而大型云服务商如亚马逊、谷歌、微软也开始走上自研芯片道路:
◎AWS的Trainium3与Inf2分别针对训练与推理做了硬件优化;◎谷歌第七代TPU“铁木”在算力与HBM容量上均提升5倍以上;◎微软的Maia 100将AI服务优化贯穿从芯片、系统到平台的全流程。
自研芯片的背后,是大型AI公司对控制算力能力、提升系统协同效率、降低对第三方芯片依赖的明确意图。
ASSC的发展不仅体现在核心计算芯片,还包括整个系统层次的协同,如HBM带宽、片上互联、热设计功耗(TDP)、封装架构(例如chiplet和2.5D封装)、冷却系统等。
因此,ASSC不再仅是单颗芯片的性能优化,而是构建一个完整、系统级优化的异构计算平台。
ASSC正以专用设计驱动AI性能革命,GPU+HBM3+高带宽封装成为当下主流,而ASIC、硅光子互联与软件栈深度整合则构成下一阶段创新的核心。
未来,计算架构的差异化将不再取决于CPU频率的高低,而是专用芯片在场景适配性、系统耦合效率和能耗控制上的综合竞争力。
Part 2产业变局:供应链、资本与人才的重塑
技术进步推动市场扩容,而市场扩容又不断倒逼产业链重构。
在应用专用半导体成为主力芯片的背景下,整个半导体生态系统——从设计、封装、制造、到分销与部署——正在经历深刻的地缘政治、资本结构与人才供需变化。制造端的供应链风险。
由于AI芯片大量依赖HBM、高阶封装、EUV光刻等尖端制造工艺,目前生产能力仍集中在少数几家亚洲厂商手中,如三星、SK海力士和台积电。
在2024年,HBM需求爆发导致美光几乎全年售罄,其2025年产能也已提前锁定。这意味着一旦其中某个环节产能受限,将严重影响AI芯片整体交付能力。
高端AI芯片,如Nvidia Blackwell、AMD Instinct或云厂商自研芯片,普遍依赖台积电的COWOS-L或先进chiplet封装,进一步增加了单点制造依赖的风险。
为缓解这种风险,全球主要经济体加快推进本地制造布局。
◎台积电宣布将在美国亚利桑那州投资高达1650亿美元,用于建设3座晶圆厂、2座先进封装厂和一个研发中心。◎英特尔则强化IDM 2.0战略,在欧洲、美国建厂并开放代工服务,试图重塑其在全球供应链中的角色。欧美的政策推动(如CHIPS Act)正在加速“本地化+安全”的供应链新模式,但这些建设需要至少3-5年周期,短期内仍需依赖东亚核心制造能力。
资本与创新的双轮驱动。
2024年,ASSC相关企业的私募和公开融资金额达到75亿美元,同比增幅超过22%。同时,芯片设计相关专利申请数在所有技术领域中排名第一,增速最快。
全球范围内,围绕AI芯片和数据中心加速器的并购与投资也持续升温。除传统IDM厂商外,初创公司如Cerebras、Groq、SambaNova等亦在小型数据中心加速器市场崭露头角。这些公司采用超大单芯片、超低延迟互联结构等差异化设计,避免与Nvidia等巨头正面竞争。
人才结构的紧张局势。数据显示,围绕GPU架构、机器学习、高性能计算的工程岗位招聘需求从2023年至2024年增长显著,而具备这些技能的人才供给严重不足。
在机器学习、GPU系统架构、固件与C++并发开发领域,平均人才供需比不足0.2:1。即便是AI基础软件工程师,也出现了招聘岗位远超市场供给的趋势。这直接推高了人才争夺战的门槛,也影响了初创企业在专用芯片开发中的推进速度。
应用专用半导体在产业层面面临制造依赖、资本分层、人才紧缺三大挑战。
◎短期内,亚洲制造仍是核心保障;◎中期来看,本地化建厂与软件硬件协同创新将主导市场格局;◎长期而言,谁掌握软硬件一体化和系统级优化能力,谁就能主导下一轮AI计算革命。
小结
2025年之后,应用专用半导体是人工智能、大规模计算、自动驾驶、通信基础设施等领域的“必需品”,我们应将视角从单一芯片性能转向系统层级的集成优化,从成本导向走向长期可持续性设计,从垂直采购走向软硬共研、算力协同。
原文标题 : 麦肯锡2025年技术展望:应用专用半导体成为全球科技必争之地