智通财经APP获悉,中信证券发布研报称,北京时间9月13日凌晨,OpenAI发布全新AI推理系列大模型o1。该系列模型通过引入大规模强化学习算法,将模型思维展现为思维链,从而显著提高了模型通用推理能力和对齐效果。根据OpenAI官方测评,o1不仅在绝大多数推理任务中表现优于GPT-4o,甚至在部分推理密集型基准测试中可与人类专家相媲美。推理性能提升的同时,o1系列模型推理算力需求大幅提升,o1-preview定价约为GPT-4o的12倍,后续降本值得关注。
投资层面看,尽管o1系列模型纯文字输出形式限制了其应用场景,但是随着底层算法能力提升带来的通用推理能力的进步,中信证券认为AI爆款应用有望从科研、编程等高价值场景起率先解锁,软件、互联网有望率先受益。除去应用端的投资机会,硬件端的需求也必然会随着多模态的技术进步而不断提高,中信证券仍然持续看好 AI 算力层面,尤其是得益于商业端逐步成熟而带来的更多的 AI 推理侧算力的机会。
中信证券主要观点如下:
事项:
北京时间9月13日凌晨,全球AI产业领头羊OpenAI正式发布一系列旨在专门解决复杂任务的全新AI推理大模型o1,即之前酝酿已久的草莓模型。根据OpenAI官方推特,o1系列模型将包括o1、o1-preview和o1-mini,其中o1-preview已开放使用,ChatGPT Plus和Team的用户以及API使用等级达到5级(API付费超1000美元)的开发者已获得该模型访问权限,企业版和教育版的用户预计将从9月16日起获得该模型访问权限。与此前The information、The medium等媒体报道基本一致,o1模型在功能、推理和性能表现上基本符合预期。
模型机理及评测效果:强化学习加持下编码/数学/推理能力提升显著。
根据OpenAI技术博客,o1模型在训练过程中引入了大规模强化学习算法,从而加强了其执行复杂推理任务的能力。而根据“Reinforcement learning: An introduction”(Sutton),强化学习起源于上世纪60年代,旨在通过奖惩机制让智能体在复杂环境中最大限度获得长期全局最优收益。强化学习主要包括定义问题、选择策略、学习价值函数(如Q学习)、模型控制和策略优化等步骤。此前谷歌围棋机器人AlphaGo的核心技术即为强化学习。在应用该项技术后,o1系列模型的输出过程与GPT系列模型存在显著不同:o1系列模型会先用至多20~30秒产生较长的思维链再进行输出,即先将复杂任务拆解为子任务进行分析,在汇总子任务结果后输出最终结果,而非GPT系列模型立即开始生成的模式。根据OpenAI官网,o1模型在理科测试、数学、编程等绝大多数推理任务中表现明显优于GPT-4o,甚至在部分推理密集型基准测试中o1模型的表现与人类专家相媲美。例如,在国际奥林匹克资格考试中,o1正确解答了83%的题目,而GPT-4o仅正确解答13%;在PhD水平科学问答测试中,o1和o1-preview表现均优于人类专家与GPT-4o。
市场定位:安全性与推理能力显著提升有望解锁应用,模型成本有待优化。
根据OpenAI官方技术博客,思维链可有效提升模型的安全和对齐水平:1)思维链可清晰的展示模型思维;2)将模型行为策略整合到推理模型的思维链中,可以高效、稳健地教导人类价值观。我们认为,目前AI产业的主要矛盾是推理能力不足和成本过高导致的爆款应用匮乏。而在安全性有保障的前提下,推理能力的显著提升使得o1有望逐步解锁应用。但由于庞大的推理算力需求导致的高成本和纯文字反馈的输出形态,我们预计短期内o1的应用场景仍将集中于编程和科研等特定高价值生产力场景,OpenAI官方亦推出了更加擅长编程的且更便宜的推理模型o1-mini。根据OpenAI官网,o1-preview定价为输入端15美元/百万token,输出端60美元/百万token;o1-mini的定价为输入端3美元/百万token,输出端12美元/百万token;GPT-4o的定价为输入端1.25美元/百万token,输出端为5美元/百万token。当前GitHub Copilot团队版和企业版官网定价分别为4美元和21美元每月,我们认为o1模型的后续成本优化值得关注。
趋势展望:推理阶段有望遵循Scaling Law,多模型配合值得关注。
在研发o1模型时,OpenAI发现给予模型更多的推理时间可有效提高模型的性能,即推理阶段的Scaling Law。这一发现在一定程度上意味着推理端的算力需求有望迎来蓬勃增长。同时目前o1系列模型的访问限制也从侧面证明了模型算力需求之旺盛。根据OpenAI官网,目前o1-preview使用限制为每周30条,o1-mini为每周50条。此外,我们认为,应用层面的多模型配合亦值得关注。根据“Merge, Ensemble, and Cooperate! A Survey on Collaborative Strategies in the Era of Large Language Models”(Jinliang Lu, Ziliang Pang, Min Xiao等),多模型协作具有整体性能提升、多任务处理能力增强、计算效率提升、错误与幻觉减少、知识共享与能力迁移等优势。多模型协作既可发生在大模型之间,也可发生在大模型与小模型之间。多模型协作策略可分为融合、集成和合作三种,其中合作方法下不同模型兼容度最高最为灵活,可创造出更加全面高效的AI系统,因此具备相当潜力。
风险因素:
AI核心技术发展不及预期风险;科技领域政策监管持续收紧风险;私有数据相关的政策监管风险;全球宏观经济复苏不及预期风险;宏观经济波动导致欧美企业IT支出不及预期风险;AI潜在伦理、道德、用户隐私风险;企业数据泄露、信息安全风险;行业竞争持续加剧风险等。
投资策略:
本次o1系列模型的更新仍然是围绕底层算法层面,尤其是大语言模型的推理能力。从技术角度,o1系列大模型的基础能力在大规模强化学习方法加持下在得到显著提升,不仅证明了在scale继续堆规模和训练计算投入的道路上仍有不断的迭代空间,更表明推理阶段有望继续遵循Scaling Law,从而带来推理端算力需求的大幅增长。应用层面,尽管o1系列模型仅有文字输出能力限制了其应用场景的开阔,但是随着底层算法能力提升带来的通用推理能力的进步,我们认为AI爆款应用有望从科研、编程等高价值场景起率先解锁,软件、互联网有望率先受益。除去应用端的投资机会,硬件端的需求也必然会随着多模态的技术进步而不断提高,我们仍然持续看好 AI 算力层面,尤其是得益于商业端逐步成熟而带来的更多的 AI 推理侧算力的机会。
【免责声明】本文仅代表作者本人观点,与和讯网无关。和讯网站对文中陈述、观点判断保持中立,不对所包含内容的准确性、可靠性或完整性提供任何明示或暗示的保证。请读者仅作参考,并请自行承担全部责任。邮箱:news_center@staff.hexun.com
智通财经APP获悉,中信证券发布研报称,北京时间9月13日凌晨,OpenAI发布全新AI推理系列大模型o1。该系列模型通过引入大规模强化学习算法,将模型思维展现为思维链,从而显著提高了模型通用推理能力和对齐效果。根据OpenAI官方测评,o1不仅在绝大多数推理任务中表现优于GPT-4o,甚至在部分推理密集型基准测试中可与人类专家相媲美。推理性能提升的同时,o1系列模型推理算力需求大幅提升,o1-preview定价约为GPT-4o的12倍,后续降本值得关注。
投资层面看,尽管o1系列模型纯文字输出形式限制了其应用场景,但是随着底层算法能力提升带来的通用推理能力的进步,中信证券认为AI爆款应用有望从科研、编程等高价值场景起率先解锁,软件、互联网有望率先受益。除去应用端的投资机会,硬件端的需求也必然会随着多模态的技术进步而不断提高,中信证券仍然持续看好 AI 算力层面,尤其是得益于商业端逐步成熟而带来的更多的 AI 推理侧算力的机会。
中信证券主要观点如下:
事项:
北京时间9月13日凌晨,全球AI产业领头羊OpenAI正式发布一系列旨在专门解决复杂任务的全新AI推理大模型o1,即之前酝酿已久的草莓模型。根据OpenAI官方推特,o1系列模型将包括o1、o1-preview和o1-mini,其中o1-preview已开放使用,ChatGPT Plus和Team的用户以及API使用等级达到5级(API付费超1000美元)的开发者已获得该模型访问权限,企业版和教育版的用户预计将从9月16日起获得该模型访问权限。与此前The information、The medium等媒体报道基本一致,o1模型在功能、推理和性能表现上基本符合预期。
模型机理及评测效果:强化学习加持下编码/数学/推理能力提升显著。
根据OpenAI技术博客,o1模型在训练过程中引入了大规模强化学习算法,从而加强了其执行复杂推理任务的能力。而根据“Reinforcement learning: An introduction”(Sutton),强化学习起源于上世纪60年代,旨在通过奖惩机制让智能体在复杂环境中最大限度获得长期全局最优收益。强化学习主要包括定义问题、选择策略、学习价值函数(如Q学习)、模型控制和策略优化等步骤。此前谷歌围棋机器人AlphaGo的核心技术即为强化学习。在应用该项技术后,o1系列模型的输出过程与GPT系列模型存在显著不同:o1系列模型会先用至多20~30秒产生较长的思维链再进行输出,即先将复杂任务拆解为子任务进行分析,在汇总子任务结果后输出最终结果,而非GPT系列模型立即开始生成的模式。根据OpenAI官网,o1模型在理科测试、数学、编程等绝大多数推理任务中表现明显优于GPT-4o,甚至在部分推理密集型基准测试中o1模型的表现与人类专家相媲美。例如,在国际奥林匹克资格考试中,o1正确解答了83%的题目,而GPT-4o仅正确解答13%;在PhD水平科学问答测试中,o1和o1-preview表现均优于人类专家与GPT-4o。
市场定位:安全性与推理能力显著提升有望解锁应用,模型成本有待优化。
根据OpenAI官方技术博客,思维链可有效提升模型的安全和对齐水平:1)思维链可清晰的展示模型思维;2)将模型行为策略整合到推理模型的思维链中,可以高效、稳健地教导人类价值观。我们认为,目前AI产业的主要矛盾是推理能力不足和成本过高导致的爆款应用匮乏。而在安全性有保障的前提下,推理能力的显著提升使得o1有望逐步解锁应用。但由于庞大的推理算力需求导致的高成本和纯文字反馈的输出形态,我们预计短期内o1的应用场景仍将集中于编程和科研等特定高价值生产力场景,OpenAI官方亦推出了更加擅长编程的且更便宜的推理模型o1-mini。根据OpenAI官网,o1-preview定价为输入端15美元/百万token,输出端60美元/百万token;o1-mini的定价为输入端3美元/百万token,输出端12美元/百万token;GPT-4o的定价为输入端1.25美元/百万token,输出端为5美元/百万token。当前GitHub Copilot团队版和企业版官网定价分别为4美元和21美元每月,我们认为o1模型的后续成本优化值得关注。
趋势展望:推理阶段有望遵循Scaling Law,多模型配合值得关注。
在研发o1模型时,OpenAI发现给予模型更多的推理时间可有效提高模型的性能,即推理阶段的Scaling Law。这一发现在一定程度上意味着推理端的算力需求有望迎来蓬勃增长。同时目前o1系列模型的访问限制也从侧面证明了模型算力需求之旺盛。根据OpenAI官网,目前o1-preview使用限制为每周30条,o1-mini为每周50条。此外,我们认为,应用层面的多模型配合亦值得关注。根据“Merge, Ensemble, and Cooperate! A Survey on Collaborative Strategies in the Era of Large Language Models”(Jinliang Lu, Ziliang Pang, Min Xiao等),多模型协作具有整体性能提升、多任务处理能力增强、计算效率提升、错误与幻觉减少、知识共享与能力迁移等优势。多模型协作既可发生在大模型之间,也可发生在大模型与小模型之间。多模型协作策略可分为融合、集成和合作三种,其中合作方法下不同模型兼容度最高最为灵活,可创造出更加全面高效的AI系统,因此具备相当潜力。
风险因素:
AI核心技术发展不及预期风险;科技领域政策监管持续收紧风险;私有数据相关的政策监管风险;全球宏观经济复苏不及预期风险;宏观经济波动导致欧美企业IT支出不及预期风险;AI潜在伦理、道德、用户隐私风险;企业数据泄露、信息安全风险;行业竞争持续加剧风险等。
投资策略:
本次o1系列模型的更新仍然是围绕底层算法层面,尤其是大语言模型的推理能力。从技术角度,o1系列大模型的基础能力在大规模强化学习方法加持下在得到显著提升,不仅证明了在scale继续堆规模和训练计算投入的道路上仍有不断的迭代空间,更表明推理阶段有望继续遵循Scaling Law,从而带来推理端算力需求的大幅增长。应用层面,尽管o1系列模型仅有文字输出能力限制了其应用场景的开阔,但是随着底层算法能力提升带来的通用推理能力的进步,我们认为AI爆款应用有望从科研、编程等高价值场景起率先解锁,软件、互联网有望率先受益。除去应用端的投资机会,硬件端的需求也必然会随着多模态的技术进步而不断提高,我们仍然持续看好 AI 算力层面,尤其是得益于商业端逐步成熟而带来的更多的 AI 推理侧算力的机会。
【免责声明】本文仅代表作者本人观点,与和讯网无关。和讯网站对文中陈述、观点判断保持中立,不对所包含内容的准确性、可靠性或完整性提供任何明示或暗示的保证。请读者仅作参考,并请自行承担全部责任。邮箱:news_center@staff.hexun.com