阿里通义千问大模型 Qwen3 发布并开源:支持两种思考模式
创始人
2025-04-29 07:45:37
0

IT之家 4 月 29 日消息,今日凌晨,阿里巴巴发布了新一代通义千问 Qwen3 模型,一举登顶全球最强开源模型。

Models

Layers

Heads

(Q / KV)

Tie Embedding

Context Length

Qwen3-0.6B

28

16 / 8

Yes

32K

Qwen3-1.7B

28

16 / 8

Yes

32K

Qwen3-4B

36

32 / 8

Yes

32K

Qwen3-8B

36

32 / 8

No

128K

Qwen3-14B

40

40 / 8

No

128K

Qwen3-32B

64

64 / 8

No

128K

Models

Layers

Heads

(Q / KV)

Experts (Total/ Activated)

Context Length

Qwen3-30B-A3B

48

32 / 4

128 / 8

128K

Qwen3-235B-A22B

94

64 / 4

128 / 8

128K

这是国内首个“混合推理模型”,将“快思考”与“慢思考”集成进同一个模型,大大节省算力消耗。

经过后训练的模型,例如 Qwen3-30B-A3B,以及它们的预训练基座模型(如 Qwen3-30B-A3B-Base)已在各大平台上开放使用。同时,阿里云开源了两个 MoE 模型的权重:

  • Qwen3-235B-A22B,一个拥有 2350 多亿总参数和 220 多亿激活参数的大模型
  • Qwen3-30B-A3B,一个拥有约 300 亿总参数和 30 亿激活参数的小型 MoE 模型。

此外,六个 Dense 模型也已开源,包括 Qwen3-32B、Qwen3-14B、Qwen3-8B、Qwen3-4B、Qwen3-1.7B 和 Qwen3-0.6B,均在 Apache 2.0 许可下开源。

据阿里云介绍,其旗舰模型 Qwen3-235B-A22B在代码、数学、通用能力等基准测试中,与 DeepSeek-R1、o1、o3-mini、Grok-3 和 Gemini-2.5-Pro 等顶级模型相比,表现出极具竞争力的结果。

此外,小型 MoE 模型 Qwen3-30B-A3B 的激活参数数量是 QwQ-32B 的 10%,表现更胜一筹,甚至像 Qwen3-4B 这样的小模型也能匹敌 Qwen2.5-72B-Instruct 的性能。

核心亮点多种思考模式

Qwen3 模型支持两种思考模式:

  • 思考模式:在这种模式下,模型会逐步推理,经过深思熟虑后给出最终答案。这种方法非常适合需要深入思考的复杂问题。
  • 非思考模式:在此模式中,模型提供快速、近乎即时的响应,适用于那些对速度要求高于深度的简单问题。

这种灵活性使用户能够根据具体任务控制模型进行“思考”的程度。例如,复杂的问题可以通过扩展推理步骤来解决,而简单的问题则可以直接快速作答,无需延迟。

至关重要的是,这两种模式的结合大大增强了模型实现稳定且高效的“思考预算”控制能力。如上文所述,Qwen3 展现出可扩展且平滑的性能提升,这与分配的计算推理预算直接相关。这样的设计让用户能够更轻松地为不同任务配置特定的预算,在成本效益和推理质量之间实现更优的平衡。

多语言

Qwen3 模型支持 119 种语言和方言,例如简体中文、繁体中文、粤语等。这一广泛的多语言能力为国际应用开辟了新的可能性,让全球用户都能受益于这些模型的强大功能。

预训练

在预训练方面,Qwen3 的数据集相比 Qwen2.5 有了显著扩展。Qwen2.5 是在 18 万亿个 token上进行预训练的,而 Qwen3 使用的数据量几乎是其两倍,达到了约 36 万亿个 token,涵盖了 119 种语言和方言

为了构建这个庞大的数据集,阿里云不仅从网络上收集数据,还从 PDF 文档中提取信息,通过 Qwen2.5-VL 从这些文档中提取文本,并用 Qwen2.5 改进提取内容的质量。

为了增加数学和代码数据的数量,阿里云还利用 Qwen2.5-Math 和 Qwen2.5-Coder 这两个数学和代码领域的专家模型合成数据,合成了包括教科书、问答对以及代码片段等多种形式的数据。

据阿里云介绍,Qwen3 预训练过程分为三个阶段。

  • 在第一阶段(S1),模型在超过 30 万亿个 token 上进行了预训练,上下文长度为 4K token。这一阶段为模型提供了基本的语言技能和通用知识。
  • 在第二阶段(S2),通过增加知识密集型数据(如 STEM、编程和推理任务)的比例来改进数据集,随后模型又在额外的 5 万亿个 token 上进行了预训练。
  • 最后阶段,使用高质量的长上下文数据将上下文长度扩展到 32K token,确保模型能够有效地处理更长的输入。

由于模型架构的改进、训练数据的增加以及更有效的训练方法,Qwen3 Dense 基础模型的整体性能与参数更多的 Qwen2.5 基础模型相当。例如,Qwen3-1.7B / 4B / 8B / 14B / 32B-Base 分别与 Qwen2.5-3B / 7B / 14B / 32B / 72B-Base 表现相当。

特别是在 STEM、编码和推理等领域,Qwen3 Dense 基础模型的表现甚至超过了更大规模的 Qwen2.5 模型。对于 Qwen3 MoE 基础模型,它们在仅使用 10% 激活参数的情况下达到了与 Qwen2.5 Dense 基础模型相似的性能。这带来了训练和推理成本的显著节省。

后训练

为了开发能够同时具备思考推理和快速响应能力的混合模型,阿里云实施了一个四阶段的训练流程,主要包括:

  • (1)长思维链冷启动,
  • (2)长思维链强化学习,
  • (3)思维模式融合,
  • (4)通用强化学习。

在第一阶段,阿里云使用多样的长思维链数据对模型进行了微调,涵盖了数学、代码、逻辑推理和 STEM 问题等多种任务和领域。这一过程旨在为模型配备基本的推理能力。第二阶段的重点是大规模强化学习,利用基于规则的奖励来增强模型的探索和钻研能力。

在第三阶段,阿里云在一份包括长思维链数据和常用的指令微调数据的组合数据上对模型进行微调,将非思考模式整合到思考模型中。确保了推理和快速响应能力的无缝结合。

最后,在第四阶段,阿里云在包括指令遵循、格式遵循和 Agent 能力等在内的 20 多个通用领域的任务上应用了强化学习,以进一步增强模型的通用能力并纠正不良行为。

高级用法

阿里云还为部署用户提供了一种软切换机制,允许用户在 enable_thinking=True 时动态控制模型的行为。具体来说,您可以在用户提示或系统消息中添加 /think 和 /no_think 来逐轮切换模型的思考模式。在多轮对话中,模型会遵循最近的指令。

IT之家提醒:大家可以在 Qwen Chat 网页版 (chat.qwen.ai) 和通义 App 中试用 Qwen3。

相关内容

热门资讯

关联MCN公司谈司马南偷税:他... 界面新闻记者 | 赵孟 蔡星卓 界面新闻编辑 | 刘海川 2025年3月21日,国家税务总局北京...
小米AI眼镜突传消息!多股涨停 值得注意的是,此前多次有爆料称小米将打造AI眼镜,预计在3月至4月发布。 3月24日,AI眼镜板块领...
珍爱网回应闭店:全面核查整改,... 图片来源:视觉中国 3月24日,珍爱网发布《消费者权益保障工作声明》称,近日,个别合作商运营问题引发...
原创 李... 近日,李嘉诚拟向美国贝莱德财团出售43个港口。据媒体报道,双方已经谈妥了所有细节,贝莱德集团高层计划...
3月17日基金净值:前海开源瑞... 证券之星消息,3月17日,前海开源瑞和债券A最新单位净值为1.0433元,累计净值为1.2293元,...
聚焦“AI焦虑”“AI幻觉”,... 人工智能(AI)技术近年来发展迅猛,已迅速蔓延至各个领域,尤其是今年初,国产DeepSeek大模型的...
3月17日基金净值:前海开源公... 证券之星消息,3月17日,前海开源公用事业股票最新单位净值为2.7367元,累计净值为2.7367元...
爆冷!戴维斯30分利夫26+1... 【搜狐体育战报】北京时间3月11日CBA常规赛第39轮,卫冕冠军在上半场领先的情况下惨遭逆转,最终主...
华为大动作,高手看好AI医疗概... 本周,市场风格出现高低切换,市场炒作新热点,如阿里玄铁芯片、AI智能体、军工、小金属等,而一些老热点...
如何在CentOS上设置共享桌... CentOS共享桌面配置指南 在服务器管理与运维场景中,CentOS因其稳定性和开源性被广泛使用,对...