大模型技术爆炸与保险业未来,阿里云黄旭初:全栈AI驱动架构革新,开源生态降低应用门槛行业动态

慧保天下—专业保险信息服务商(燕梳新青年信息科技)

11小时前

DeepSeek这样新架构的出现也直接提速或者改变了模型供应商对于算力的理解,使其将更多的研发力量投入到架构层面,做算力优化。

编者按

4月25日,在由『慧保天下』主办、众安信科独家战略合作、律商联讯风险信息协办的“2025保险科技峰会”在深圳市举行。阿里云保险行业首席架构师黄旭初出席大会并分享主题为《全栈AI驱动企业级架构演进》的主题演讲。

黄旭初围绕大模型技术演进趋势及其对保险行业的影响展开深度剖析。针对大模型发展趋势,黄旭初指出,当前大模型仍处快速迭代期,技术爆炸效应显著,国内外模型性能差距快速缩小,开源生态的繁荣将持续降低企业应用门槛。阿里云作为核心参与者,未来将重点投入开源模型、推理优化及多模态融合,并通过不同尺寸模型适配多样化场景需求。

针对保险行业应用,黄旭初提出“数据双飞轮”企业架构构想,即通用大模型与垂直小模型协同的生态体系。基于“数据双飞轮”架构,保险公司可以通过三种开发范式实现渐进式升级:知识库+通用大模型的初级应用、多智能体+推理模型的中阶方案,以及数据双飞轮本身。

黄旭初还强调,全栈效率优化是落地关键,需同步推进组织转型、基础设施升级和场景化智能体开发。当前行业实践正从非核心辅助向核心业务渗透,劳动力密集场景将率先突破。

以下为黄旭初演讲全文:

黄旭初 阿里云保险行业首席架构师

尊敬的各位领导、专家以及业界同仁,大家下午好!

我的分享主题是《全栈AI驱动企业级架构演进》,主要分为两部分:第一部分,我会结合阿里云作为大模型供应商本身,谈谈我对大模型趋势的理解,以及未来保险公司在使用大模型时需要关注的点。第二部分偏向于应用,当真正的大模型诞生后,将会怎样影响到险企的技术架构、应用架构以及未来的应用场景?

01

大模型技术的演进趋势

早在OpenAI于2020年发布ChatGPT3.5之前,阿里的一些团队就已经在研究万亿级参数的M6大模型,并取得了较大突破。后来,阿里也是第一个在测地做开源模型,从1.0做到2.5,现在即将迎来3.0。一路走下来,阿里对大模型的理解,对整个大模型在行业的落地还是积累了比较多的经验。

而在DeepSeek于春节期间出世后,大模型领域又诞生了诸如Munus等各种新型AI大模型。未来,在新产品的基础上,无疑还会产生新的AI发展方向,且更新周期将会越来越短。这就引发出一个问题:未来的大模型的终态会是怎样的?

我们的理解是,真正的大模型发展到现在差不多2年时间,其实还远没到达终态,但是其发展速度会越来越快。如果会场上有科幻小说《三体》的粉丝的话,应该知道《三体》中有个“技术爆炸”的假说,即指智慧文明在极短的时间内完成高科技研发,在宇宙时间轴上以爆炸形式迅速发展的现象,类似于工业革命。大模型的未来还是非常值得期待的,尽管我们不知道未来的大模型能对我们的行业产生哪些影响,但目前我们应该尽快地拥抱大模型。

DeepSeek还切实激活了AI产业在保险业中的运用,无论是阿里云这样的模型供应商,还是英伟达那样的算力供应商,抑或是保险公司企业客户以及直接触达大模型的个体用户,DeepSeek的出现都产生了巨大影响。

从大模型供应商的角度来讲,DeepSeek的成功使阿里看到开源大模型对整个行业的影响,更加坚定了阿里在大模型开源这条路线上的投入。而DeepSeek这样新架构的出现也直接提速或者改变了模型供应商对于算力的理解,使其将更多的研发力量投入到架构层面,做算力优化。

对于保险公司企业客户来讲,随着获得、使用大模型的成本越来越低,未来可能会看到越来越多的大模型在保险场景内真正落地,而企业自建大模型的难度也会不断降低。

对于终端用户来讲,慢思考、深度学习、推理模型诞生以后,当整个思维决策链全部展现到用户端时,用户对于大模型本身的信任度、产品体验度会大大增加。

对于算力来讲,DeepSeek这种混合专家模型(MoE)架构降低了企业的算力使用门槛和使用要求,从而大大激发了总体市场对于大模型整体算力的需求。未来,市场对于大模型的推理和训练算力的需求会越来越旺盛。然而,随着国外对于中国的算力管制可能会变得越来越严苛,这就要求中国内地的算力供应商在这方面做更多的投入。

规模化法则(Scaling Law)依然是大模型发展的第一性原理。原来做大模型预训练,数据、算力、训练时间三条主线决定了预训练模型的好坏。后来,Facebook的大模型将互联网可用的数据尽收囊中用于训练,所以数据训练大模型的主线基本上走到了尽头。再后来,随着DeepSeek诞生,我们看到,虽然数据基本上用完,但它的架构层面还有非常多的提升空间,这就推动了像阿里或者DeepSeek这样的科技公司、大模型公司在更多的层面去研究,提升未来大模型整体的效率。

我们基本上可以预测,明年、后年甚至今年,中国的大模型有可能赶上或者超越国外的优秀大模型。从技术差异讲,开源大模型推出以后,国内和国外优秀模型整体的性能差异在快速缩小,近一两年基本上已经达到百分之一点几。从技术路线来讲,国内外各个模型供应商的技术路线也在趋同,像OpenAI有通用模型,也有推理模型;DeepSeek也有V3、R1这样的通用和推理模型,阿里其实也有……大家都在往这个方向发展。

02

“数据双飞轮”驱动企业架构革新

阿里会在哪些方面继续投入呢?

第一,开源。阿里会把越来越多的优秀的闭源模型开放出来,供市场使用。我们上个月开源了Omni的一个多模态模型,该模型既可以理解文字,又可以理解声音、视频、图片,从业界来讲,这也是未来的方向。

第二,加大投入。阿里会加大在类似于R1这样推理模型上的投入,主要聚焦于任务规划、工具使用以及后训练的强化学习。另外,阿里也会在多模态的融合模型方面去做投入。

第三,推出不同尺寸。阿里会推出不同尺寸去适应端上的算力、不同的场景,这是阿里随着刚刚讲的趋势未来会再重点突破的方向。

接下来,我们关注企业架构。不管是技术平权也好,还是算力要求降低也罢,总之,我们看到了企业拥有自己模型的一个可能性。阿里对于未来保险公司内部企业架构的理解是这样的:未来保险公司的模型架构应该是“数据双飞轮”模型,即有一个无限靠近AGI的大模型+非常多小模型的架构去共同服务险企内部的保险业务。其中,核心大模型可以通过数据蒸馏训练小模型;小模型则可以在日常业务流程中把数据沉淀下来,以后再通过强化学习提升大模型的实力。简单理解的话,未来,险企内部在营销、核保、客服都会有规模较小的小模型,企业整体上又可能会有个通用的大模型。

基于“数据双飞轮”的架构基础,我建议保险公司搭建大模型体系时可以采用不同的开发范式:

第一种,知识库+通用大模型(RAG+LLM)。这是最简单的方式,也是现在大部分企业已经在实践的开发范式。不过,由于知识是外部的,大模型也是固定的,这种范式整体优化的空间会比较少。

第二种,多智能体+推理模型(Muti-agent+ reasoning LLM)。这是目前阿里跟部分保险公司在探索的模型,中间已经涉及了诸如DeepSeek、阿里QwQ推理模型去做要求比较高的逻辑推理,比如在核保核赔等业务场景的大模型应用。

第三种,“数据双飞轮”。随着险企使用大模型的深入,未来应该会有险企自己的专属大模型或者小模型去服务各个场景的业务流程。

前面提到的三种开发范式的效能究竟怎样,我们用提示词+大模型去做质检检测,得出以下结论:

第一种范式是知识库+通用大模型,虽然这种范式耗时很短,但是其准确率仅仅能够到64%,不能满足要求。

第二种范式是多智能体+推理模型,通过把各种大小模型、各种提示词做成不同的智能体去编排,可以把模型准确率提升到90%以上,但因为随着大模型调用次数增多,整体耗时会变得非常长。

第三种范式是数据双飞轮模型,这种范式可以把险企的知识真正训练到既准确、性能又好的小模型里,且这种小模型耗时相对也能够接受,这是阿里未来探索的一个方向。

对于未来理想的应用架构,我认为所有具有原子能力的大模型都应通过标准大模型协议(MCP)封装好以后,又应用智能体通过标准的协议去调用整体原子能力。在开源界,OpenAI是Spring开源框架的具体实现,它可以快速的把传统的Java、Python基于Spring AI去做整体改造。而阿里在Spring Cloud Alibaba开源的基础上,推出了Spring AI Alibaba,这个框架目前正在上海地区的一些险企内实践。

03

保险业应用场景与实践,离不开全栈效率优化

要用好大模型,需要全栈效率优化。险企往往只能看到顶层模型的调用,却看不到模型底部的能力。举个例子,由于DeepSeek在各个层面做了很大优化,因此其官方调用成本特别低;但如果把DeepSeek模型部署在别的GPU上,再去调用的时候,成本其实没有这么低。反过来讲,险企在真正用大模型的时候,也要去考虑我各个层面是不是都要优化,不仅要构建险企自主构建大模型的能力,还要考虑现有供应商的能力,能否直接拿过来用。

如何进行全栈效率优化?企业构建AI全栈能力需要综合考虑场景、平台、模型、算力、组织五大领域。具体可从三方面入手:第一,需要组织人才转型,人才的技能要改变,人才的结构要改变。第二,需要全新的创新知识,在算力层面,比较推荐现在具有有全栈基础设施优化能力的供应商。第三,平台层面才是整体AI应用的场景,平台层面也会有各种智能体的应用、各种智能体的开发、低代码的开发。

阿里在2个月前曾推出了金融行业的Agent智能体的全景图,包括通用智能体,以及针对银行业、证券业、保险业三个核心金融行业的智能体。在保险业,阿里推出的智能体有些面向监管合规,有些则面向核保、开发、销售。

整个保险业在大模型领域的实践探索,总体特点是从ToE、ToA到ToC、从非核心应用到核心应用,从AI应用到AI原生应用。劳动力密集、知识密集场景优先,流程被使用的足够场景优先,编程辅助和智能客服成为支持大模型场景的典型产品。

如果把大模型的应用分成几个类型,从易到难,首先是最简单的知识问答,即上文提到的知识库+通用大模型。其次业务辅助,目前探索比较多,主要是面向代理人员工为主。最后是业务自动化,面向最终客户,从服务对象来讲,有对内的,比如代码辅助;也有业务支撑相关的,比如产品辅助、核保辅助、理赔辅助,这些都是作为一个助手去真正地帮助保险员工提升效率;也有销售相关,针对代理人最终的客户;也有客户服务相关。

我的分享主要是这些,谢谢各位。

DeepSeek这样新架构的出现也直接提速或者改变了模型供应商对于算力的理解,使其将更多的研发力量投入到架构层面,做算力优化。

编者按

4月25日,在由『慧保天下』主办、众安信科独家战略合作、律商联讯风险信息协办的“2025保险科技峰会”在深圳市举行。阿里云保险行业首席架构师黄旭初出席大会并分享主题为《全栈AI驱动企业级架构演进》的主题演讲。

黄旭初围绕大模型技术演进趋势及其对保险行业的影响展开深度剖析。针对大模型发展趋势,黄旭初指出,当前大模型仍处快速迭代期,技术爆炸效应显著,国内外模型性能差距快速缩小,开源生态的繁荣将持续降低企业应用门槛。阿里云作为核心参与者,未来将重点投入开源模型、推理优化及多模态融合,并通过不同尺寸模型适配多样化场景需求。

针对保险行业应用,黄旭初提出“数据双飞轮”企业架构构想,即通用大模型与垂直小模型协同的生态体系。基于“数据双飞轮”架构,保险公司可以通过三种开发范式实现渐进式升级:知识库+通用大模型的初级应用、多智能体+推理模型的中阶方案,以及数据双飞轮本身。

黄旭初还强调,全栈效率优化是落地关键,需同步推进组织转型、基础设施升级和场景化智能体开发。当前行业实践正从非核心辅助向核心业务渗透,劳动力密集场景将率先突破。

以下为黄旭初演讲全文:

黄旭初 阿里云保险行业首席架构师

尊敬的各位领导、专家以及业界同仁,大家下午好!

我的分享主题是《全栈AI驱动企业级架构演进》,主要分为两部分:第一部分,我会结合阿里云作为大模型供应商本身,谈谈我对大模型趋势的理解,以及未来保险公司在使用大模型时需要关注的点。第二部分偏向于应用,当真正的大模型诞生后,将会怎样影响到险企的技术架构、应用架构以及未来的应用场景?

01

大模型技术的演进趋势

早在OpenAI于2020年发布ChatGPT3.5之前,阿里的一些团队就已经在研究万亿级参数的M6大模型,并取得了较大突破。后来,阿里也是第一个在测地做开源模型,从1.0做到2.5,现在即将迎来3.0。一路走下来,阿里对大模型的理解,对整个大模型在行业的落地还是积累了比较多的经验。

而在DeepSeek于春节期间出世后,大模型领域又诞生了诸如Munus等各种新型AI大模型。未来,在新产品的基础上,无疑还会产生新的AI发展方向,且更新周期将会越来越短。这就引发出一个问题:未来的大模型的终态会是怎样的?

我们的理解是,真正的大模型发展到现在差不多2年时间,其实还远没到达终态,但是其发展速度会越来越快。如果会场上有科幻小说《三体》的粉丝的话,应该知道《三体》中有个“技术爆炸”的假说,即指智慧文明在极短的时间内完成高科技研发,在宇宙时间轴上以爆炸形式迅速发展的现象,类似于工业革命。大模型的未来还是非常值得期待的,尽管我们不知道未来的大模型能对我们的行业产生哪些影响,但目前我们应该尽快地拥抱大模型。

DeepSeek还切实激活了AI产业在保险业中的运用,无论是阿里云这样的模型供应商,还是英伟达那样的算力供应商,抑或是保险公司企业客户以及直接触达大模型的个体用户,DeepSeek的出现都产生了巨大影响。

从大模型供应商的角度来讲,DeepSeek的成功使阿里看到开源大模型对整个行业的影响,更加坚定了阿里在大模型开源这条路线上的投入。而DeepSeek这样新架构的出现也直接提速或者改变了模型供应商对于算力的理解,使其将更多的研发力量投入到架构层面,做算力优化。

对于保险公司企业客户来讲,随着获得、使用大模型的成本越来越低,未来可能会看到越来越多的大模型在保险场景内真正落地,而企业自建大模型的难度也会不断降低。

对于终端用户来讲,慢思考、深度学习、推理模型诞生以后,当整个思维决策链全部展现到用户端时,用户对于大模型本身的信任度、产品体验度会大大增加。

对于算力来讲,DeepSeek这种混合专家模型(MoE)架构降低了企业的算力使用门槛和使用要求,从而大大激发了总体市场对于大模型整体算力的需求。未来,市场对于大模型的推理和训练算力的需求会越来越旺盛。然而,随着国外对于中国的算力管制可能会变得越来越严苛,这就要求中国内地的算力供应商在这方面做更多的投入。

规模化法则(Scaling Law)依然是大模型发展的第一性原理。原来做大模型预训练,数据、算力、训练时间三条主线决定了预训练模型的好坏。后来,Facebook的大模型将互联网可用的数据尽收囊中用于训练,所以数据训练大模型的主线基本上走到了尽头。再后来,随着DeepSeek诞生,我们看到,虽然数据基本上用完,但它的架构层面还有非常多的提升空间,这就推动了像阿里或者DeepSeek这样的科技公司、大模型公司在更多的层面去研究,提升未来大模型整体的效率。

我们基本上可以预测,明年、后年甚至今年,中国的大模型有可能赶上或者超越国外的优秀大模型。从技术差异讲,开源大模型推出以后,国内和国外优秀模型整体的性能差异在快速缩小,近一两年基本上已经达到百分之一点几。从技术路线来讲,国内外各个模型供应商的技术路线也在趋同,像OpenAI有通用模型,也有推理模型;DeepSeek也有V3、R1这样的通用和推理模型,阿里其实也有……大家都在往这个方向发展。

02

“数据双飞轮”驱动企业架构革新

阿里会在哪些方面继续投入呢?

第一,开源。阿里会把越来越多的优秀的闭源模型开放出来,供市场使用。我们上个月开源了Omni的一个多模态模型,该模型既可以理解文字,又可以理解声音、视频、图片,从业界来讲,这也是未来的方向。

第二,加大投入。阿里会加大在类似于R1这样推理模型上的投入,主要聚焦于任务规划、工具使用以及后训练的强化学习。另外,阿里也会在多模态的融合模型方面去做投入。

第三,推出不同尺寸。阿里会推出不同尺寸去适应端上的算力、不同的场景,这是阿里随着刚刚讲的趋势未来会再重点突破的方向。

接下来,我们关注企业架构。不管是技术平权也好,还是算力要求降低也罢,总之,我们看到了企业拥有自己模型的一个可能性。阿里对于未来保险公司内部企业架构的理解是这样的:未来保险公司的模型架构应该是“数据双飞轮”模型,即有一个无限靠近AGI的大模型+非常多小模型的架构去共同服务险企内部的保险业务。其中,核心大模型可以通过数据蒸馏训练小模型;小模型则可以在日常业务流程中把数据沉淀下来,以后再通过强化学习提升大模型的实力。简单理解的话,未来,险企内部在营销、核保、客服都会有规模较小的小模型,企业整体上又可能会有个通用的大模型。

基于“数据双飞轮”的架构基础,我建议保险公司搭建大模型体系时可以采用不同的开发范式:

第一种,知识库+通用大模型(RAG+LLM)。这是最简单的方式,也是现在大部分企业已经在实践的开发范式。不过,由于知识是外部的,大模型也是固定的,这种范式整体优化的空间会比较少。

第二种,多智能体+推理模型(Muti-agent+ reasoning LLM)。这是目前阿里跟部分保险公司在探索的模型,中间已经涉及了诸如DeepSeek、阿里QwQ推理模型去做要求比较高的逻辑推理,比如在核保核赔等业务场景的大模型应用。

第三种,“数据双飞轮”。随着险企使用大模型的深入,未来应该会有险企自己的专属大模型或者小模型去服务各个场景的业务流程。

前面提到的三种开发范式的效能究竟怎样,我们用提示词+大模型去做质检检测,得出以下结论:

第一种范式是知识库+通用大模型,虽然这种范式耗时很短,但是其准确率仅仅能够到64%,不能满足要求。

第二种范式是多智能体+推理模型,通过把各种大小模型、各种提示词做成不同的智能体去编排,可以把模型准确率提升到90%以上,但因为随着大模型调用次数增多,整体耗时会变得非常长。

第三种范式是数据双飞轮模型,这种范式可以把险企的知识真正训练到既准确、性能又好的小模型里,且这种小模型耗时相对也能够接受,这是阿里未来探索的一个方向。

对于未来理想的应用架构,我认为所有具有原子能力的大模型都应通过标准大模型协议(MCP)封装好以后,又应用智能体通过标准的协议去调用整体原子能力。在开源界,OpenAI是Spring开源框架的具体实现,它可以快速的把传统的Java、Python基于Spring AI去做整体改造。而阿里在Spring Cloud Alibaba开源的基础上,推出了Spring AI Alibaba,这个框架目前正在上海地区的一些险企内实践。

03

保险业应用场景与实践,离不开全栈效率优化

要用好大模型,需要全栈效率优化。险企往往只能看到顶层模型的调用,却看不到模型底部的能力。举个例子,由于DeepSeek在各个层面做了很大优化,因此其官方调用成本特别低;但如果把DeepSeek模型部署在别的GPU上,再去调用的时候,成本其实没有这么低。反过来讲,险企在真正用大模型的时候,也要去考虑我各个层面是不是都要优化,不仅要构建险企自主构建大模型的能力,还要考虑现有供应商的能力,能否直接拿过来用。

如何进行全栈效率优化?企业构建AI全栈能力需要综合考虑场景、平台、模型、算力、组织五大领域。具体可从三方面入手:第一,需要组织人才转型,人才的技能要改变,人才的结构要改变。第二,需要全新的创新知识,在算力层面,比较推荐现在具有有全栈基础设施优化能力的供应商。第三,平台层面才是整体AI应用的场景,平台层面也会有各种智能体的应用、各种智能体的开发、低代码的开发。

阿里在2个月前曾推出了金融行业的Agent智能体的全景图,包括通用智能体,以及针对银行业、证券业、保险业三个核心金融行业的智能体。在保险业,阿里推出的智能体有些面向监管合规,有些则面向核保、开发、销售。

整个保险业在大模型领域的实践探索,总体特点是从ToE、ToA到ToC、从非核心应用到核心应用,从AI应用到AI原生应用。劳动力密集、知识密集场景优先,流程被使用的足够场景优先,编程辅助和智能客服成为支持大模型场景的典型产品。

如果把大模型的应用分成几个类型,从易到难,首先是最简单的知识问答,即上文提到的知识库+通用大模型。其次业务辅助,目前探索比较多,主要是面向代理人员工为主。最后是业务自动化,面向最终客户,从服务对象来讲,有对内的,比如代码辅助;也有业务支撑相关的,比如产品辅助、核保辅助、理赔辅助,这些都是作为一个助手去真正地帮助保险员工提升效率;也有销售相关,针对代理人最终的客户;也有客户服务相关。

我的分享主要是这些,谢谢各位。

展开
打开“财经头条”阅读更多精彩资讯
APP内打开