大模型该往何处去?百度李彦宏:行业存在三大认知误区

子弹财经

2个月前

”他表示:“闭源模型准确讲应该叫商业模型,是无数用户分摊研发成本、分摊推理用的机器资源和GPU,GPU的使用效率是最高的,百度文心大模型3.5、4.0的GPU使用率都达到了90%多。

“外界对大模型有相当多的误解。”近日,李彦宏一则内部讲话曝光再次将大众的关注点转向了大模型及AI领域。

据称,在最近一次和员工交流中,李彦宏首次谈到了当下行业对大模型存在的三个认知误区——大模型竞争、开源模型效率、智能体趋势。

在他看来,大模型的天花板很高,现在距离理想情况还相差非常远,所以模型要不断快速迭代、更新和升级。这个过程可能需要几年、十几年如一日地投入,才能真正满足用户需求,帮助用户降本增效。

1

关于大模型竞争

榜单不代表真正实力

自去年3月以来,大模型相关领域发展得非常迅猛。很多玩家为了证明自身的产品好,会在发布之后打榜、猜测试题目、答题技巧等。在外界看来,榜单上的数据似乎表明各个大模型的能力,已经没有壁垒。

但李彦宏并不认同这一观点。他表示,每一个新模型发布时,都想说自己有多好,每次都去跟先进的模型做比较,拿测试集或者弄一些榜单,说自己的得分已经跟它差不多了,甚至某些单项上得分已经超过GPT-4,但这并不能证明这些新发的模型与OpenAl这类先进的模型没有那么大的差距了。

因为,模型之间的差距是多维度的,而不是简单地“跑分”。

一是能力。不管是理解能力、生成能力、逻辑推理能力还是记忆能力等这些基本能力上的差距;

二是成本,大模型想具备某种能力或想精准回答一些问题,需要付出多少成本?有些模型可能推理速度很慢,虽然也达到同样的效果,但实际上它的体验还是不如最先进的模型。

在百度文心大模型的实际使用过程中,百度不允许技术人员去打榜。因为真正衡量文心大模型能力的是,在具体应用场景当中到底有没有满足用户的需求。

图 / 摄图网,基于VRF协议

有没有帮助用户产生价值的增益,这是百度真正在乎的。

2

关于开源模型效率

在商业领域不占优势

在此次内部讲话中,李彦宏进一步阐释了外界对开源大模型认知的第二个误区即开源模型,并不能解决根本的算力问题。而算力往往需要支持高昂的成本。

“在大模型时代之前,大家习惯了开源意味着免费、意味着成本低。” 他解释说,比如开源的Linux,因为已经有了电脑,所以使用Linux是免费的。但这在大模型时代并不成立。

大模型推理是很贵的,开源模型也不会送算力,还得自己买设备,无法实现算力的高效利用。

“效率上开源模型是不行的。” 他表示:“ 闭源模型准确讲应该叫商业模型,是无数用户分摊研发成本、分摊推理用的机器资源和GPU,GPU的使用效率是最高的,百度文心大模型3.5、4.0的GPU使用率都达到了90%多。”

图 / 摄图网,基于VRF协议

李彦宏分析,在教学科研等领域,开源模型是有价值的;但在商业领域,当追求的是效率、效果和最低成本时,开源模型是没有优势的。

3

关于智能体趋势

是重要发展方向,

但还不是业界共识

当前,智能体已经受到越来越多的大模型公司及客户的关注。但关于未来的发展,各家的认知并未达成一致。

在内部讲话中,李彦宏谈到了大模型应用的发展阶段,他认为首先出现的是Copilot,对人进行辅助;接下来是Agent智能体,有一定的自主性,能自主使用工具、反思、自我进化;这种自动化程度再发展,就会变成AI Worker,能独立完成各方面的工作。

“虽然有很多人看好智能体这个发展方向,但是到今天为止,智能体还不是共识,像百度这样把智能体作为大模型最重要的战略、最重要的发展方向的公司并不多。”李彦宏表示。

为什么要强调智能体?

李彦宏也给出了答案,“智能体的门槛确实很低”。

很多人不知道怎么把大模型变成应用,而智能体是一个非常直接、高效、简单的方式,在模型之上构建智能体相当方便。

据他透露,目前,每周都有上万个新的智能体在百度文心智能体平台上被创造出来,智能体在百度生态的日均分发次数已快速增长至800万次。

“模应一体”,或许正是大模型发展和落地的一个重要方向。

©投稿专线  微信:cyzqx2013

”他表示:“闭源模型准确讲应该叫商业模型,是无数用户分摊研发成本、分摊推理用的机器资源和GPU,GPU的使用效率是最高的,百度文心大模型3.5、4.0的GPU使用率都达到了90%多。

“外界对大模型有相当多的误解。”近日,李彦宏一则内部讲话曝光再次将大众的关注点转向了大模型及AI领域。

据称,在最近一次和员工交流中,李彦宏首次谈到了当下行业对大模型存在的三个认知误区——大模型竞争、开源模型效率、智能体趋势。

在他看来,大模型的天花板很高,现在距离理想情况还相差非常远,所以模型要不断快速迭代、更新和升级。这个过程可能需要几年、十几年如一日地投入,才能真正满足用户需求,帮助用户降本增效。

1

关于大模型竞争

榜单不代表真正实力

自去年3月以来,大模型相关领域发展得非常迅猛。很多玩家为了证明自身的产品好,会在发布之后打榜、猜测试题目、答题技巧等。在外界看来,榜单上的数据似乎表明各个大模型的能力,已经没有壁垒。

但李彦宏并不认同这一观点。他表示,每一个新模型发布时,都想说自己有多好,每次都去跟先进的模型做比较,拿测试集或者弄一些榜单,说自己的得分已经跟它差不多了,甚至某些单项上得分已经超过GPT-4,但这并不能证明这些新发的模型与OpenAl这类先进的模型没有那么大的差距了。

因为,模型之间的差距是多维度的,而不是简单地“跑分”。

一是能力。不管是理解能力、生成能力、逻辑推理能力还是记忆能力等这些基本能力上的差距;

二是成本,大模型想具备某种能力或想精准回答一些问题,需要付出多少成本?有些模型可能推理速度很慢,虽然也达到同样的效果,但实际上它的体验还是不如最先进的模型。

在百度文心大模型的实际使用过程中,百度不允许技术人员去打榜。因为真正衡量文心大模型能力的是,在具体应用场景当中到底有没有满足用户的需求。

图 / 摄图网,基于VRF协议

有没有帮助用户产生价值的增益,这是百度真正在乎的。

2

关于开源模型效率

在商业领域不占优势

在此次内部讲话中,李彦宏进一步阐释了外界对开源大模型认知的第二个误区即开源模型,并不能解决根本的算力问题。而算力往往需要支持高昂的成本。

“在大模型时代之前,大家习惯了开源意味着免费、意味着成本低。” 他解释说,比如开源的Linux,因为已经有了电脑,所以使用Linux是免费的。但这在大模型时代并不成立。

大模型推理是很贵的,开源模型也不会送算力,还得自己买设备,无法实现算力的高效利用。

“效率上开源模型是不行的。” 他表示:“ 闭源模型准确讲应该叫商业模型,是无数用户分摊研发成本、分摊推理用的机器资源和GPU,GPU的使用效率是最高的,百度文心大模型3.5、4.0的GPU使用率都达到了90%多。”

图 / 摄图网,基于VRF协议

李彦宏分析,在教学科研等领域,开源模型是有价值的;但在商业领域,当追求的是效率、效果和最低成本时,开源模型是没有优势的。

3

关于智能体趋势

是重要发展方向,

但还不是业界共识

当前,智能体已经受到越来越多的大模型公司及客户的关注。但关于未来的发展,各家的认知并未达成一致。

在内部讲话中,李彦宏谈到了大模型应用的发展阶段,他认为首先出现的是Copilot,对人进行辅助;接下来是Agent智能体,有一定的自主性,能自主使用工具、反思、自我进化;这种自动化程度再发展,就会变成AI Worker,能独立完成各方面的工作。

“虽然有很多人看好智能体这个发展方向,但是到今天为止,智能体还不是共识,像百度这样把智能体作为大模型最重要的战略、最重要的发展方向的公司并不多。”李彦宏表示。

为什么要强调智能体?

李彦宏也给出了答案,“智能体的门槛确实很低”。

很多人不知道怎么把大模型变成应用,而智能体是一个非常直接、高效、简单的方式,在模型之上构建智能体相当方便。

据他透露,目前,每周都有上万个新的智能体在百度文心智能体平台上被创造出来,智能体在百度生态的日均分发次数已快速增长至800万次。

“模应一体”,或许正是大模型发展和落地的一个重要方向。

©投稿专线  微信:cyzqx2013

展开
打开“财经头条”阅读更多精彩资讯
最新评论

参与讨论

APP内打开