DeepSeek 浪潮下,端侧 AI 的创新催化剂

爱范儿

9小时前

不过现在端侧AI的技术拐点已经出现,《AI变革正在推动终端侧推理创新》白皮书中指出了加速端侧AI落地的四大趋势:。
端侧 AI
催化剂

在柏拉图的《理想国》中有一个洞穴隐喻的故事,一群囚徒从小就被锁在一个洞穴里面对墙壁,身后有一堆火,囚徒们一生所见只有映在墙壁上的影子,便以为这些影子就是真实的世界。

大模型也曾被类似的「影子」误导,一度将大力出奇迹的预训练奉为圭臬。直到 2025 年初 DeepSeek R1 展现的推理能力,AI 从仅仅观察影子的阶段,转向以自省和辩证的方式探寻真知。
DeepSeek 让模型走出「洞穴」,也在改变智能终端的范式。
DeepSeek 蒸馏模型在问世不到两周内便实现在搭载骁龙平台的商用终端上的运行,AI 硬件将不再只是提升估值的「性感故事」,而是已经具备实际的应用价值和商业潜力。
高通最新发布的白皮书《AI 变革正在推动终端侧推理创新》指出,DeepSeek 的推出标志着 AI 进入推理创新时代,训练成本下降、快速推理部署和针对边缘环境的创新,正在推动高质量小模型的激增,加速 AI 跨边缘终端的部署。
清华大学副教授、面壁智能联合创始人兼首席科学家刘知远也提出,这种从「规模至上」到「效率优先」的转变,为端侧 AI 提供了重要启示:通过模型压缩、参数优化和算法创新,可以在保持模型性能的同时,大幅降低计算资源需求,使其适合在终端设备上运行。
使用 DeepSeek 蒸馏后的 Qwen-7B 模型,已经能够在性能上与去年所推出的且当时最为先进的 GPT-4o 云端模型持平。
这也意味着,过去很多只能在云端运行大规模参数的模型,能部署到随身的终端设备中,在本地完成复杂的推理过程,甚至可能实现满血运行。同时,在端侧 AI 的新浪潮下,我们正见证智能终端的又一次关键转折——从单纯的功能性设备到具有自主理解和行动能力的智能体(Agent)。
端侧 AI 的技术拐点:从「规模至上」到「推理创新时代」
两年前,比尔·盖茨发布了一篇博客,称在有生之年见证了两次革命性的 Demo ,第一次是在 1980 年看到了图形用户界面(GUI)——现代操作系统的前身,另一次则是在 GPT-3.5 前几个月看到 AI 的回答方式。
然而作为普通用户,对这种改变的感知显然没那么强烈,因为交互的变革的载体离不开智能终端,就像 iPhone 将功能机时代的按键操作转变为触控交互,进而重塑了整个智能手机生态。
那么在 AI 时代这个载体是什么?
或许未必是一个全新形态的终端,而是智能终端带来的全新体验形式——从应用驱动向智能体驱动。
就像高通 CEO 安蒙在去年年底提到的新趋势,AI 是新的用户界面(UI)。端侧 AI 的落地将改变传统的交互逻辑。
用户无需打开特定应用,AI 智能体可通过多模态输入(语音、图像、视频)直接执行任务。这些功能背后其实离不开边缘侧 AI 支持。
比如荣耀 Magic7 系列中 YOYO 智能体的许多交互功能就需要终端侧 AI 处理能力的支持,骁龙 8 至尊版搭载的高通 Hexagon NPU 为终端侧提供了足够强 的 AI 算力,可以在手机本地完成推理和理解等 AI 任务。
过去端侧 AI 受限于硬件性能,而大模型的计算需求却在快速增长,虽然此前搭载骁龙 8 至尊版的智能手机已经能在端侧运行 7B 规模的模型,但针对一些复杂的生成式 AI 用例和高质量图像生成等任务,还是需要结合云端算力。
不过现在端侧 AI 的技术拐点已经出现,《AI变革正在推动终端侧推理创新》白皮书中指出了加速端侧 AI 落地的四大趋势:
1.
当前先进的AI小模型已具备卓越性能,通过模型蒸馏和新型网络架构,性能已经超越一年前仅能在云端运行的更大模型
2.
模型参数规模正在快速缩小,先进的量化和剪枝技术使开发者能在保持准确性的同时减小模型体积
3.
开发者能够在边缘侧打造更丰富的应用,如文本摘要、编程助手和实时翻译
4.
让 Agent 成为新交互入口,个性化多模态AI智能体将简化交互
高通技术公司高级副总裁、技术规划和边缘解决方案业务总经理马德嘉告诉爱范儿,随着模型规模不断地下降,日后 10-20 亿参数规模的模型将会占用更少的运行内存,更好地适配 8-12GB 内存设置的终端。
异构计算架构:端侧 AI 的硬件基础
高通技术公司拥有三大业界领先的处理器单元,这些处理器对于端侧 AI 的发展非常重要。
马德嘉表示,「我们有业界领先的定制高通 Oryon CPU,并已经应用于我们的 PC、移动和汽车平台。」
高通 Adreno GPU 能够满足终端侧 AI 运行所需要的众多功能需求;此外,高通 Hexagon NPU 完全面向处理生成式 AI 工作负载而设计。
这三大处理器单元必须都具备业界领先的能力且能够协同工作,才能实现异构计算,满足生成式 AI 的发展需求,而在这一领域高通有着非常强大的优势。
端侧 AI 的落地对芯片架构提出了更高的要求,高通的做法是,将 NPU、GPU 和 CPU 集成到终端中的异构计算架构,从而在更低功耗下输出更高算力,且满足不同场景的 AI 处理任务需求。
这一架构的核心是三大处理器单元之间,如同一支交响乐队般的协同合作:
1.
高通自研 Oryon CPU:最新的第二代 Oryon CPU 采用台积电 3nm 工艺,最高主频达 4.32GHz,超大缓存设计(业界最大 24MB 二级缓存)显著降低 AI 推理时延。
2.
高通 Adreno GPU:满足终端侧 AI 运行的多样化功能需求,特别在并行计算和图像处理方面表现出色。
3.
高通 Hexagon NPU:专为处理生成式 AI 工作负载而设计,让骁龙 8 至尊版上实现了45% 的 AI 性能提升和 45% 的 AI 能效提升。
其中 Oryon CPU 在手机与汽车芯片中的复用。这意味着这些终端设备可以采用共通的底层架构,有更好的兼容性,互相之间的互联互通也会更加通畅。
这种异构计算架构在最新发布的众多骁龙 8 至尊版旗舰手机上已经有所体现, iQOO 13 利用骁龙 8 至尊版的 AI 算力,打造了 AI 电竞信号引擎,通过 AI 智能优化网络,实现多任务场景下时延更低,可以边玩游戏边视频或直播。
REDMI K80 Pro 则将 AI 技术应用于连接体验,带来了小米星辰 AI 多网融合,可以进行智能信号预测,让网络自动优化。在地铁场景下,微信视频卡顿率降低 31%,短视频卡顿率降低 29%。
如果说智能终端已经进入 Agent 时代,那么异构计算架构就是智能体的「中央神经系统」,不仅处理各种感官信息,还能协调「思考」与「行动」,保证端侧 AI 高效、流畅、稳定地运行。
软件也是释放端侧 AI 潜能的关键
正如高性能赛车不仅需要强劲的引擎,还需要精密的调校和优秀的赛车手一样。端侧 AI 的实现不仅仅依赖于强大的硬件算力,同样离不开高效、完善的软件工具支持。
对开发者来说,其实不需要知道硬件端的具体设计细节,更重要的是软件工具库支持,让他们能够按照自己所需,非常自由、灵活地选择所需的框架、runtime 和工具,面向任何操作系统设计 AI 应用和智能体。
在提供硬件基础的同时,高通也在构建 AI 软件栈,包括库(libraries)、SDK 和优化工具,可简化模型部署并提升性能。
开发者可以利用这些资源,面向高通平台高效进行模型适配,缩短 AI 赋能应用的上市时间。无论端侧 AI 的算力有多强大,也只有通过应用来释放出来,最终才能转化为用户体验。
在实际应用中,你可以拿起手机识别你将用于烹饪的食材,成功识别后,让手机帮你生成对应的菜谱,还能让手机给你一些低卡路里菜单组合。
烹饪完成后,你可以通过摄像头,向手机询问这些食物所包含的卡路里。凭借智能手机如今对多模态 AI 能力的支持,这个用例可以完全在终端侧实现。
这种场景正是智能体作为新平台的典型应用——用户不再需要打开多个应用,而是通过自然交互直接完成复杂任务。
这种以开发者为中心的策略,大大简化了在消费和商用产品中集成先进 AI 特性的过程,也在加速 AI 推理创新在端侧的应用。
AI Hub 正成为开发者的百宝箱
目前已经有众多智能手机、PC、汽车厂商在终端设备中接入 DeepSeek,开始了利用高质量小模型在终端侧升级AI体验,或是打造全新 AI 应用的实践。边缘侧 AI 应用的创新蓄势待发。
如果你是一个开发者,对不同细分领域的芯片平台的 AI 部署也有了更迫切的需求。高通去年发布的高通 AI Hub 跨出了一大步,让开发者选择相应平台和开发模型、编写应用,最后在不同类型的移动终端上进行部署。
高通 AI Hub 包含超过 100 个预优化的 AI 模型,如Llama、Allam 3B、通义千问、OpenAI 等厂商模型,支持在搭载骁龙平台的终端上无缝部署,发布一年以来,目前已有超过 1500 家企业在使用,进一步推动了端侧 AI 应用的普及。
AI Hub 覆盖的终端也不断增加,马德嘉向我们介绍,高通 AI Hub 可支持移动、PC、IoT、汽车,甚至 Wi-Fi 联网终端平台,比如第二代高通机器人 RB3 平台这一面向 IoT 领域的机器人平台。
高通正在成为端侧 AI 生态构建者,通过与全球 AI 模型厂商的积极合作,不仅提供了强大的计算平台,还开发了完整的软件栈和开发工具,使开发者能够更轻松地将 AI 模型集成到应用程序中。
智能终端的 Agent 时代真正到来之前,这个行业需要先构建完整的端侧 AI 生态系统。
高通,正在成为端侧 AI 的首席架构师
在中国隋朝,曾诞生了一个名留千史的建筑工程专家宇文恺,他不仅规划了贯通南北的水道网络,更创新性地设计了船闸系统,解决了不同水位间船只通行的技术难题。用「通则兴,塞则衰」的系统思维,将分散的河道整合成一个互联互通的交通网络。
这与高通为端侧 AI 提供的统一而高效的计算基础颇为相似。正如大运河的修建需要克服地形、水文等诸多挑战,端侧 AI 所面对的,是来自不同终端设备、不同应用场景的更加多样化和复杂的需求。这其中不仅包括了硬件性能的限制,还包括了模型大小、功耗、延迟等多重约束。
而要让 AI 真正融入到这些多样化的终端中,正如宇文恺当年规划大运河一样,需要一位「首席架构师」来进行顶层设计,打造出强大的底层架构来支撑其高效运行。这个架构不仅要能处理海量数据,还要能灵活适应各种应用场景。
这种从具体到抽象、从工程到技术的递进,实际上也反映了人类文明发展的基本脉络。
人类文明的传承本质就是信息蒸馏的过程。从中世纪一字一句地誊抄、信息时代的系统化结构,到 AI 推理时代,信息的提炼呈现出新的形态——模型通过强化学习来发展推理能力,像婴儿通过不断的自我探索来认识世界。
像前面提到的高通 AI Hub ,它构建的预优化模型库,使开发者能将适应终端设备的模型的,应用在高通手机、PC 和汽车等多终端中的技术基础。
模型轻量化是端侧 AI 普及的关键。DeepSeek 蒸馏模型已经可在骁龙平台智能手机和 PC上直接运行。这种技术突破类似于大运河工程中的节水闸门设计,以最小的资源消耗实现最大的通行效率。
同时 AI 推理的创新正在边缘侧爆发。
研究机构 Counterpoint Research 预测,2025 年将成为生成式 AI 手机的关键拐点。
生成式AI技术正在成为中高端手机的标配。预计 2025 年全球生成式 AI 手机渗透率将从 2024 年的 19%提升至29%,出货量约 4 亿台,到 2027 年 ,生成式 AI 手机出货量预计达 5.5 亿台(占整体市场 43%)。
此外,全球边缘 AI芯 片规模预计从 2023 年 76 亿美元增至 2027 年 252 亿美元(CAGR 27.1%),汽车、工业物联网和医疗是核心增长领域。
高通正在转变成端侧 AI 的首席架构师。
端侧 AI 的能力注入到终端的每一个角落,从智能手机到汽车,从 XR 头显到 PC,一条连接不同终端、促进智能体自由流动的技术「大运河」正在形成。

不过现在端侧AI的技术拐点已经出现,《AI变革正在推动终端侧推理创新》白皮书中指出了加速端侧AI落地的四大趋势:。
端侧 AI
催化剂

在柏拉图的《理想国》中有一个洞穴隐喻的故事,一群囚徒从小就被锁在一个洞穴里面对墙壁,身后有一堆火,囚徒们一生所见只有映在墙壁上的影子,便以为这些影子就是真实的世界。

大模型也曾被类似的「影子」误导,一度将大力出奇迹的预训练奉为圭臬。直到 2025 年初 DeepSeek R1 展现的推理能力,AI 从仅仅观察影子的阶段,转向以自省和辩证的方式探寻真知。
DeepSeek 让模型走出「洞穴」,也在改变智能终端的范式。
DeepSeek 蒸馏模型在问世不到两周内便实现在搭载骁龙平台的商用终端上的运行,AI 硬件将不再只是提升估值的「性感故事」,而是已经具备实际的应用价值和商业潜力。
高通最新发布的白皮书《AI 变革正在推动终端侧推理创新》指出,DeepSeek 的推出标志着 AI 进入推理创新时代,训练成本下降、快速推理部署和针对边缘环境的创新,正在推动高质量小模型的激增,加速 AI 跨边缘终端的部署。
清华大学副教授、面壁智能联合创始人兼首席科学家刘知远也提出,这种从「规模至上」到「效率优先」的转变,为端侧 AI 提供了重要启示:通过模型压缩、参数优化和算法创新,可以在保持模型性能的同时,大幅降低计算资源需求,使其适合在终端设备上运行。
使用 DeepSeek 蒸馏后的 Qwen-7B 模型,已经能够在性能上与去年所推出的且当时最为先进的 GPT-4o 云端模型持平。
这也意味着,过去很多只能在云端运行大规模参数的模型,能部署到随身的终端设备中,在本地完成复杂的推理过程,甚至可能实现满血运行。同时,在端侧 AI 的新浪潮下,我们正见证智能终端的又一次关键转折——从单纯的功能性设备到具有自主理解和行动能力的智能体(Agent)。
端侧 AI 的技术拐点:从「规模至上」到「推理创新时代」
两年前,比尔·盖茨发布了一篇博客,称在有生之年见证了两次革命性的 Demo ,第一次是在 1980 年看到了图形用户界面(GUI)——现代操作系统的前身,另一次则是在 GPT-3.5 前几个月看到 AI 的回答方式。
然而作为普通用户,对这种改变的感知显然没那么强烈,因为交互的变革的载体离不开智能终端,就像 iPhone 将功能机时代的按键操作转变为触控交互,进而重塑了整个智能手机生态。
那么在 AI 时代这个载体是什么?
或许未必是一个全新形态的终端,而是智能终端带来的全新体验形式——从应用驱动向智能体驱动。
就像高通 CEO 安蒙在去年年底提到的新趋势,AI 是新的用户界面(UI)。端侧 AI 的落地将改变传统的交互逻辑。
用户无需打开特定应用,AI 智能体可通过多模态输入(语音、图像、视频)直接执行任务。这些功能背后其实离不开边缘侧 AI 支持。
比如荣耀 Magic7 系列中 YOYO 智能体的许多交互功能就需要终端侧 AI 处理能力的支持,骁龙 8 至尊版搭载的高通 Hexagon NPU 为终端侧提供了足够强 的 AI 算力,可以在手机本地完成推理和理解等 AI 任务。
过去端侧 AI 受限于硬件性能,而大模型的计算需求却在快速增长,虽然此前搭载骁龙 8 至尊版的智能手机已经能在端侧运行 7B 规模的模型,但针对一些复杂的生成式 AI 用例和高质量图像生成等任务,还是需要结合云端算力。
不过现在端侧 AI 的技术拐点已经出现,《AI变革正在推动终端侧推理创新》白皮书中指出了加速端侧 AI 落地的四大趋势:
1.
当前先进的AI小模型已具备卓越性能,通过模型蒸馏和新型网络架构,性能已经超越一年前仅能在云端运行的更大模型
2.
模型参数规模正在快速缩小,先进的量化和剪枝技术使开发者能在保持准确性的同时减小模型体积
3.
开发者能够在边缘侧打造更丰富的应用,如文本摘要、编程助手和实时翻译
4.
让 Agent 成为新交互入口,个性化多模态AI智能体将简化交互
高通技术公司高级副总裁、技术规划和边缘解决方案业务总经理马德嘉告诉爱范儿,随着模型规模不断地下降,日后 10-20 亿参数规模的模型将会占用更少的运行内存,更好地适配 8-12GB 内存设置的终端。
异构计算架构:端侧 AI 的硬件基础
高通技术公司拥有三大业界领先的处理器单元,这些处理器对于端侧 AI 的发展非常重要。
马德嘉表示,「我们有业界领先的定制高通 Oryon CPU,并已经应用于我们的 PC、移动和汽车平台。」
高通 Adreno GPU 能够满足终端侧 AI 运行所需要的众多功能需求;此外,高通 Hexagon NPU 完全面向处理生成式 AI 工作负载而设计。
这三大处理器单元必须都具备业界领先的能力且能够协同工作,才能实现异构计算,满足生成式 AI 的发展需求,而在这一领域高通有着非常强大的优势。
端侧 AI 的落地对芯片架构提出了更高的要求,高通的做法是,将 NPU、GPU 和 CPU 集成到终端中的异构计算架构,从而在更低功耗下输出更高算力,且满足不同场景的 AI 处理任务需求。
这一架构的核心是三大处理器单元之间,如同一支交响乐队般的协同合作:
1.
高通自研 Oryon CPU:最新的第二代 Oryon CPU 采用台积电 3nm 工艺,最高主频达 4.32GHz,超大缓存设计(业界最大 24MB 二级缓存)显著降低 AI 推理时延。
2.
高通 Adreno GPU:满足终端侧 AI 运行的多样化功能需求,特别在并行计算和图像处理方面表现出色。
3.
高通 Hexagon NPU:专为处理生成式 AI 工作负载而设计,让骁龙 8 至尊版上实现了45% 的 AI 性能提升和 45% 的 AI 能效提升。
其中 Oryon CPU 在手机与汽车芯片中的复用。这意味着这些终端设备可以采用共通的底层架构,有更好的兼容性,互相之间的互联互通也会更加通畅。
这种异构计算架构在最新发布的众多骁龙 8 至尊版旗舰手机上已经有所体现, iQOO 13 利用骁龙 8 至尊版的 AI 算力,打造了 AI 电竞信号引擎,通过 AI 智能优化网络,实现多任务场景下时延更低,可以边玩游戏边视频或直播。
REDMI K80 Pro 则将 AI 技术应用于连接体验,带来了小米星辰 AI 多网融合,可以进行智能信号预测,让网络自动优化。在地铁场景下,微信视频卡顿率降低 31%,短视频卡顿率降低 29%。
如果说智能终端已经进入 Agent 时代,那么异构计算架构就是智能体的「中央神经系统」,不仅处理各种感官信息,还能协调「思考」与「行动」,保证端侧 AI 高效、流畅、稳定地运行。
软件也是释放端侧 AI 潜能的关键
正如高性能赛车不仅需要强劲的引擎,还需要精密的调校和优秀的赛车手一样。端侧 AI 的实现不仅仅依赖于强大的硬件算力,同样离不开高效、完善的软件工具支持。
对开发者来说,其实不需要知道硬件端的具体设计细节,更重要的是软件工具库支持,让他们能够按照自己所需,非常自由、灵活地选择所需的框架、runtime 和工具,面向任何操作系统设计 AI 应用和智能体。
在提供硬件基础的同时,高通也在构建 AI 软件栈,包括库(libraries)、SDK 和优化工具,可简化模型部署并提升性能。
开发者可以利用这些资源,面向高通平台高效进行模型适配,缩短 AI 赋能应用的上市时间。无论端侧 AI 的算力有多强大,也只有通过应用来释放出来,最终才能转化为用户体验。
在实际应用中,你可以拿起手机识别你将用于烹饪的食材,成功识别后,让手机帮你生成对应的菜谱,还能让手机给你一些低卡路里菜单组合。
烹饪完成后,你可以通过摄像头,向手机询问这些食物所包含的卡路里。凭借智能手机如今对多模态 AI 能力的支持,这个用例可以完全在终端侧实现。
这种场景正是智能体作为新平台的典型应用——用户不再需要打开多个应用,而是通过自然交互直接完成复杂任务。
这种以开发者为中心的策略,大大简化了在消费和商用产品中集成先进 AI 特性的过程,也在加速 AI 推理创新在端侧的应用。
AI Hub 正成为开发者的百宝箱
目前已经有众多智能手机、PC、汽车厂商在终端设备中接入 DeepSeek,开始了利用高质量小模型在终端侧升级AI体验,或是打造全新 AI 应用的实践。边缘侧 AI 应用的创新蓄势待发。
如果你是一个开发者,对不同细分领域的芯片平台的 AI 部署也有了更迫切的需求。高通去年发布的高通 AI Hub 跨出了一大步,让开发者选择相应平台和开发模型、编写应用,最后在不同类型的移动终端上进行部署。
高通 AI Hub 包含超过 100 个预优化的 AI 模型,如Llama、Allam 3B、通义千问、OpenAI 等厂商模型,支持在搭载骁龙平台的终端上无缝部署,发布一年以来,目前已有超过 1500 家企业在使用,进一步推动了端侧 AI 应用的普及。
AI Hub 覆盖的终端也不断增加,马德嘉向我们介绍,高通 AI Hub 可支持移动、PC、IoT、汽车,甚至 Wi-Fi 联网终端平台,比如第二代高通机器人 RB3 平台这一面向 IoT 领域的机器人平台。
高通正在成为端侧 AI 生态构建者,通过与全球 AI 模型厂商的积极合作,不仅提供了强大的计算平台,还开发了完整的软件栈和开发工具,使开发者能够更轻松地将 AI 模型集成到应用程序中。
智能终端的 Agent 时代真正到来之前,这个行业需要先构建完整的端侧 AI 生态系统。
高通,正在成为端侧 AI 的首席架构师
在中国隋朝,曾诞生了一个名留千史的建筑工程专家宇文恺,他不仅规划了贯通南北的水道网络,更创新性地设计了船闸系统,解决了不同水位间船只通行的技术难题。用「通则兴,塞则衰」的系统思维,将分散的河道整合成一个互联互通的交通网络。
这与高通为端侧 AI 提供的统一而高效的计算基础颇为相似。正如大运河的修建需要克服地形、水文等诸多挑战,端侧 AI 所面对的,是来自不同终端设备、不同应用场景的更加多样化和复杂的需求。这其中不仅包括了硬件性能的限制,还包括了模型大小、功耗、延迟等多重约束。
而要让 AI 真正融入到这些多样化的终端中,正如宇文恺当年规划大运河一样,需要一位「首席架构师」来进行顶层设计,打造出强大的底层架构来支撑其高效运行。这个架构不仅要能处理海量数据,还要能灵活适应各种应用场景。
这种从具体到抽象、从工程到技术的递进,实际上也反映了人类文明发展的基本脉络。
人类文明的传承本质就是信息蒸馏的过程。从中世纪一字一句地誊抄、信息时代的系统化结构,到 AI 推理时代,信息的提炼呈现出新的形态——模型通过强化学习来发展推理能力,像婴儿通过不断的自我探索来认识世界。
像前面提到的高通 AI Hub ,它构建的预优化模型库,使开发者能将适应终端设备的模型的,应用在高通手机、PC 和汽车等多终端中的技术基础。
模型轻量化是端侧 AI 普及的关键。DeepSeek 蒸馏模型已经可在骁龙平台智能手机和 PC上直接运行。这种技术突破类似于大运河工程中的节水闸门设计,以最小的资源消耗实现最大的通行效率。
同时 AI 推理的创新正在边缘侧爆发。
研究机构 Counterpoint Research 预测,2025 年将成为生成式 AI 手机的关键拐点。
生成式AI技术正在成为中高端手机的标配。预计 2025 年全球生成式 AI 手机渗透率将从 2024 年的 19%提升至29%,出货量约 4 亿台,到 2027 年 ,生成式 AI 手机出货量预计达 5.5 亿台(占整体市场 43%)。
此外,全球边缘 AI芯 片规模预计从 2023 年 76 亿美元增至 2027 年 252 亿美元(CAGR 27.1%),汽车、工业物联网和医疗是核心增长领域。
高通正在转变成端侧 AI 的首席架构师。
端侧 AI 的能力注入到终端的每一个角落,从智能手机到汽车,从 XR 头显到 PC,一条连接不同终端、促进智能体自由流动的技术「大运河」正在形成。

展开
打开“财经头条”阅读更多精彩资讯
APP内打开