这里是AI贴吧网-AI资讯的硬核前线!我们24小时监测全球实验室动态,算法追踪巨头动向、代码解析学术突破,用最“硅基”视角解秘AI革命浪潮!
今日凌晨,阿里巴巴发布了新一代通义千问Qwen3模型,一举登顶全球最强开源模型。
Models
Layers
Heads
(Q/KV)
TieEmbedding
ContextLength
Qwen3-0.6B
28
16/8
Yes
32K
Qwen3-1.7B
28
16/8
Yes
32K
Qwen3-4B
36
32/8
Yes
32K
Qwen3-8B
36
32/8
No
128K
Qwen3-14B
40
40/8
No
128K
Qwen3-32B
64
64/8
No
128K
Models
Layers
Heads
(Q/KV)
Experts(Total/Activated)
ContextLength
Qwen3-30B-A3B
48
32/4
128/8
128K
Qwen3-235B-A22B
94
64/4
128/8
128K
这是国内首个“混合推理模型”,将“快思考”与“慢思考”集成进同一个模型,大大节省算力消耗。
经过后训练的模型,例如Qwen3-30B-A3B,以及它们的预训练基座模型(如Qwen3-30B-A3B-Base)已在各大平台上开放使用。同时,阿里云开源了两个MoE模型的权重:
Qwen3-235B-A22B,一个拥有2350多亿总参数和220多亿激活参数的大模型Qwen3-30B-A3B,一个拥有约300亿总参数和30亿激活参数的小型MoE模型。
此外,六个Dense模型也已开源,包括Qwen3-32B、Qwen3-14B、Qwen3-8B、Qwen3-4B、Qwen3-1.7B和Qwen3-0.6B,均在Apache2.0许可下开源。
据阿里云介绍,其旗舰模型 Qwen3-235B-A22B 在代码、数学、通用能力等基准测试中,与DeepSeek-R1、o1、o3-mini、Grok-3和Gemini-2.5-Pro等顶级模型相比,表现出极具竞争力的结果。
此外,小型MoE模型Qwen3-30B-A3B的激活参数数量是QwQ-32B的10%,表现更胜一筹,甚至像Qwen3-4B这样的小模型也能匹敌Qwen2.5-72B-Instruct的性能。
核心亮点
多种思考模式
Qwen3模型支持两种思考模式:
思考模式:在这种模式下,模型会逐步推理,经过深思熟虑后给出最终答案。这种方法非常适合需要深入思考的复杂问题。非思考模式:在此模式中,模型提供快速、近乎即时的响应,适用于那些对速度要求高于深度的简单问题。
这种灵活性使用户能够根据具体任务控制模型进行“思考”的程度。例如,复杂的问题可以通过扩展推理步骤来解决,而简单的问题则可以直接快速作答,无需延迟。
至关重要的是,这两种模式的结合大大增强了模型实现稳定且高效的“思考预算”控制能力。如上文所述,Qwen3展现出可扩展且平滑的性能提升,这与分配的计算推理预算直接相关。这样的设计让用户能够更轻松地为不同任务配置特定的预算,在成本效益和推理质量之间实现更优的平衡。
多语言
Qwen3模型支持119种语言和方言,例如简体中文、繁体中文、粤语等。这一广泛的多语言能力为国际应用开辟了新的可能性,让全球用户都能受益于这些模型的强大功能。
预训练
在预训练方面,Qwen3的数据集相比Qwen2.5有了显著扩展。Qwen2.5是在 18万亿个token 上进行预训练的,而Qwen3使用的数据量几乎是其两倍,达到了约 36万亿个token,涵盖了 119种语言和方言。
为了构建这个庞大的数据集,阿里云不仅从网络上收集数据,还从PDF文档中提取信息,通过Qwen2.5-VL从这些文档中提取文本,并用Qwen2.5改进提取内容的质量。
为了增加数学和代码数据的数量,阿里云还利用Qwen2.5-Math和Qwen2.5-Coder这两个数学和代码领域的专家模型合成数据,合成了包括教科书、问答对以及代码片段等多种形式的数据。
据阿里云介绍,Qwen3预训练过程分为三个阶段。
在第一阶段(S1),模型在超过30万亿个token上进行了预训练,上下文长度为4Ktoken。这一阶段为模型提供了基本的语言技能和通用知识。在第二阶段(S2),通过增加知识密集型数据(如STEM、编程和推理任务)的比例来改进数据集,随后模型又在额外的5万亿个token上进行了预训练。最后阶段,使用高质量的长上下文数据将上下文长度扩展到32Ktoken,确保模型能够有效地处理更长的输入。
由于模型架构的改进、训练数据的增加以及更有效的训练方法,Qwen3Dense基础模型的整体性能与参数更多的Qwen2.5基础模型相当。例如,Qwen3-1.7B/4B/8B/14B/32B-Base分别与Qwen2.5-3B/7B/14B/32B/72B-Base表现相当。
特别是在STEM、编码和推理等领域,Qwen3Dense基础模型的表现甚至超过了更大规模的Qwen2.5模型。对于Qwen3MoE基础模型,它们在仅使用10%激活参数的情况下达到了与Qwen2.5Dense基础模型相似的性能。这带来了训练和推理成本的显著节省。
后训练
为了开发能够同时具备思考推理和快速响应能力的混合模型,阿里云实施了一个四阶段的训练流程,主要包括:
(1)长思维链冷启动,(2)长思维链强化学习,(3)思维模式融合,(4)通用强化学习。
在第一阶段,阿里云使用多样的长思维链数据对模型进行了微调,涵盖了数学、代码、逻辑推理和STEM问题等多种任务和领域。这一过程旨在为模型配备基本的推理能力。第二阶段的重点是大规模强化学习,利用基于规则的奖励来增强模型的探索和钻研能力。
在第三阶段,阿里云在一份包括长思维链数据和常用的指令微调数据的组合数据上对模型进行微调,将非思考模式整合到思考模型中。确保了推理和快速响应能力的无缝结合。
最后,在第四阶段,阿里云在包括指令遵循、格式遵循和Agent能力等在内的20多个通用领域的任务上应用了强化学习,以进一步增强模型的通用能力并纠正不良行为。
高级用法
阿里云还为部署用户提供了一种软切换机制,允许用户在enable_thinking=True时动态控制模型的行为。具体来说,您可以在用户提示或系统消息中添加/think和/no_think来逐轮切换模型的思考模式。在多轮对话中,模型会遵循最近的指令。
1AI提醒:大家可以在QwenChat 网页版(chat.qwen.ai)和通义App中试用Qwen3。
想掌握最新AI隐藏技能?挖透巨头紧急下架产品的真相?点击【AI贴吧网-AI资讯】,深度解析+实战案例,智能刷新你的认知!