其中,在奥数水平的AIME25测评中,千问3获得81.5分,刷新开源纪录;在考察代码能力的Live Code Bench测评中,千问3突破70分大关,表现超过Grok3;在评估模型人类偏好对齐的Arena Hard测评中,千问3以95.6分超越OpenAI-o1及DeepSeek-R1。
千问3采用混合专家架构,总参数量为235B,激活参数量仅需22B,在推理、指令遵循、工具调用、多语言能力等方面均大幅增强。
千问3具有以下主要亮点:
一是“快思考”与“慢思考”结合。作为国内首个“混合推理模型”, Qwen3将“快思考”与“慢思考”集成进同一个模型,可以在思考模式(用于复杂的逻辑推理、数学和编码等任务)与与非思考模式(用于聊天等简单实时交互)之间无缝切换,既可以对简单需求进行“秒答”,也能够对复杂问题进行多步骤“深度思考”,从而大幅节省算力消耗。
二是提供8种参数大小的模型。千问3提供了8款不同尺寸的丰富的模型版本,包含2款30B、235B的混合专家模型,以及0.6B、1.7B、4B、8B、14B、32B等6款稠密模型,每款模型均斩获同尺寸开源模型SOTA(最佳性能)。这为本地测试与科研、手机端侧应用、电脑或汽车端、企业落地、云端高效部署等不同场景与任务提供了能够满足要求的尺寸模型,最大程度平衡性能与成本。
二是推理能力显著提升。千问3在数学、代码生成和常识逻辑推理方面超越QwQ(在思考模式下)和Qwen2.5 instruct models(在非思考模式下)。其中,Qwen3-235B-A22B 表现尤为突出,刷新了开源模型的智能水平新高,显存占用仅为性能相近模型的三分之一。无论是数学推理、代码生成还是综合逻辑分析, Qwen3 均展现出卓越能力,稳居全球开源模型前列。
四是支持MCP协议,具备强大的工具调用能力。在评估模型智能体能力的BFCL评测中,千问3拿下70.8的新高,超越谷歌Gemini2.5-Pro、OpenAI-o1等顶尖模型,大幅降低智能体调用工具的门槛。千问3还支持MCP(模型上下文协议),并具备强大的工具调用能力,能够实现高效的手机及电脑智能体操作等任务。
五是部署成本大幅下降。在性能大幅提升的同时,千问3的部署成本大大降低。满血版 671B 参数量的DeepSeek-R1需要8张H20(价格大约100万元)进行部署,适合低并发场景;一般推荐使用16张H20部署,总价约200万元。而千问3的旗舰模型仅需3张H20(大约36万元)即可部署,推荐使用4张H20部署,总价约50万。因此,从部署成本角度看,千问3旗舰模型是满血版R1的25%—35%,部署成本大降75%—65%。
据了解,千问3系列模型依旧采用宽松的Apache2.0协议开源,并首次支持119多种语言。目前,千问3已上线魔塔社区、HuggingFace、Github等平台,全球开发者、研究机构和企业均可免费下载模型并商用。此外,个人用户可通过通义APP直接体验千问3,同时夸克也即将全线接入千问3。
当下,AI产业已将关注点从模型训练转向以智能体为核心的AI应用,性能更强、成本更优的模型将有越来越大的应用价值。通义千问团队表示:“千问3的发布和开源将极大地推动大型基础模型的研究与开发。我们的目标是为全球的研究人员、开发者和组织赋能,帮助他们利用这些前沿模型构建创新解决方案。”
此次开源的千问3型以更小的参数规模实现了更高的智能水平,为开发者提供了更加多样的模型尺寸及思考模式选择,有助于开发者更好地平衡及控制预算成本。
通义千问团队的技术负责人林俊旸在其个人社交平台上表示,花了一些时间来找方法解决一些并不花哨的问题,比如如何通过稳定的训练来扩展强化学习、如何平衡来自不同领域的数据、如何增强对更多语言的支持等。他还表示,团队正迈向下一个阶段,即训练智能体来扩展长程推理,同时更多地关注现实世界的任务。
据悉,作为与DeepSeek并成为“开源双子星”的另外一星,阿里通义已开源200余个模型,全球下载量超3亿次,千问衍生模型数超10万个,已超越Meta的Llama,成为全球第一开源模型。通过持续的模型迭代及开源开放,阿里在推动AI技术普及的同时,也增强了中国在全球开源AI生态中的影响力。
其中,在奥数水平的AIME25测评中,千问3获得81.5分,刷新开源纪录;在考察代码能力的Live Code Bench测评中,千问3突破70分大关,表现超过Grok3;在评估模型人类偏好对齐的Arena Hard测评中,千问3以95.6分超越OpenAI-o1及DeepSeek-R1。
千问3采用混合专家架构,总参数量为235B,激活参数量仅需22B,在推理、指令遵循、工具调用、多语言能力等方面均大幅增强。
千问3具有以下主要亮点:
一是“快思考”与“慢思考”结合。作为国内首个“混合推理模型”, Qwen3将“快思考”与“慢思考”集成进同一个模型,可以在思考模式(用于复杂的逻辑推理、数学和编码等任务)与与非思考模式(用于聊天等简单实时交互)之间无缝切换,既可以对简单需求进行“秒答”,也能够对复杂问题进行多步骤“深度思考”,从而大幅节省算力消耗。
二是提供8种参数大小的模型。千问3提供了8款不同尺寸的丰富的模型版本,包含2款30B、235B的混合专家模型,以及0.6B、1.7B、4B、8B、14B、32B等6款稠密模型,每款模型均斩获同尺寸开源模型SOTA(最佳性能)。这为本地测试与科研、手机端侧应用、电脑或汽车端、企业落地、云端高效部署等不同场景与任务提供了能够满足要求的尺寸模型,最大程度平衡性能与成本。
二是推理能力显著提升。千问3在数学、代码生成和常识逻辑推理方面超越QwQ(在思考模式下)和Qwen2.5 instruct models(在非思考模式下)。其中,Qwen3-235B-A22B 表现尤为突出,刷新了开源模型的智能水平新高,显存占用仅为性能相近模型的三分之一。无论是数学推理、代码生成还是综合逻辑分析, Qwen3 均展现出卓越能力,稳居全球开源模型前列。
四是支持MCP协议,具备强大的工具调用能力。在评估模型智能体能力的BFCL评测中,千问3拿下70.8的新高,超越谷歌Gemini2.5-Pro、OpenAI-o1等顶尖模型,大幅降低智能体调用工具的门槛。千问3还支持MCP(模型上下文协议),并具备强大的工具调用能力,能够实现高效的手机及电脑智能体操作等任务。
五是部署成本大幅下降。在性能大幅提升的同时,千问3的部署成本大大降低。满血版 671B 参数量的DeepSeek-R1需要8张H20(价格大约100万元)进行部署,适合低并发场景;一般推荐使用16张H20部署,总价约200万元。而千问3的旗舰模型仅需3张H20(大约36万元)即可部署,推荐使用4张H20部署,总价约50万。因此,从部署成本角度看,千问3旗舰模型是满血版R1的25%—35%,部署成本大降75%—65%。
据了解,千问3系列模型依旧采用宽松的Apache2.0协议开源,并首次支持119多种语言。目前,千问3已上线魔塔社区、HuggingFace、Github等平台,全球开发者、研究机构和企业均可免费下载模型并商用。此外,个人用户可通过通义APP直接体验千问3,同时夸克也即将全线接入千问3。
当下,AI产业已将关注点从模型训练转向以智能体为核心的AI应用,性能更强、成本更优的模型将有越来越大的应用价值。通义千问团队表示:“千问3的发布和开源将极大地推动大型基础模型的研究与开发。我们的目标是为全球的研究人员、开发者和组织赋能,帮助他们利用这些前沿模型构建创新解决方案。”
此次开源的千问3型以更小的参数规模实现了更高的智能水平,为开发者提供了更加多样的模型尺寸及思考模式选择,有助于开发者更好地平衡及控制预算成本。
通义千问团队的技术负责人林俊旸在其个人社交平台上表示,花了一些时间来找方法解决一些并不花哨的问题,比如如何通过稳定的训练来扩展强化学习、如何平衡来自不同领域的数据、如何增强对更多语言的支持等。他还表示,团队正迈向下一个阶段,即训练智能体来扩展长程推理,同时更多地关注现实世界的任务。
据悉,作为与DeepSeek并成为“开源双子星”的另外一星,阿里通义已开源200余个模型,全球下载量超3亿次,千问衍生模型数超10万个,已超越Meta的Llama,成为全球第一开源模型。通过持续的模型迭代及开源开放,阿里在推动AI技术普及的同时,也增强了中国在全球开源AI生态中的影响力。