DataLearner 标志DataLearnerAI
最新AI资讯
大模型排行榜
大模型评测基准
大模型列表
大模型对比
资源中心
工具
语言中文
DataLearner 标志DataLearner AI

专注大模型评测、数据资源与实践教学的知识平台,持续更新可落地的 AI 能力图谱。

产品

  • 评测榜单
  • 模型对比
  • 数据资源

资源

  • 部署教程
  • 原创内容
  • 工具导航

关于

  • 关于我们
  • 隐私政策
  • 数据收集方法
  • 联系我们

© 2026 DataLearner AI. DataLearner 持续整合行业数据与案例,为科研、企业与开发者提供可靠的大模型情报与实践指南。

隐私政策服务条款
页面导航
目录
大模型列表QwQ-32B
QW

QwQ-32B

推理大模型

QwQ-32B

发布时间: 2025-03-06更新于: 2025-03-06 09:01:201,326
在线体验GitHubHugging FaceCompare
模型参数
325亿
上下文长度
128K
中文支持
支持
推理能力

QwQ-32B 是由 阿里巴巴 发布的 AI 模型,发布时间为 2025-03-06,定位为 推理大模型,参数规模约为 325.0B,上下文长度为 128K,模型文件大小约 64GB,采用 Apache 2.0 许可。

数据优先来自官方发布(GitHub、Hugging Face、论文),其次为评测基准官方结果,最后为第三方评测机构数据。 了解数据收集方法

QwQ-32B

模型基本信息

推理过程
支持
思考模式
不支持思考模式
上下文长度
128K tokens
最大输出长度
暂无数据
模型类型
推理大模型
发布时间
2025-03-06
模型文件大小
64GB
MoE架构
否
总参数 / 激活参数
325 亿 / 不涉及
知识截止
暂无数据
QwQ-32B

开源和体验地址

代码开源状态
Apache 2.0
预训练权重开源
Apache 2.0- 免费商用授权
GitHub 源码
暂无GitHub开源地址
Hugging Face
https://huggingface.co/Qwen/QwQ-32B
在线体验
https://huggingface.co/spaces/Qwen/QwQ-32B-Demo
QwQ-32B

官方介绍与博客

官方论文
QwQ-32B: Embracing the Power of Reinforcement Learning
DataLearnerAI博客
重磅!阿里开源325亿参数规模的推理大模型QwQ-32B:性能接近DeepSeek R1满血版,参数更低,免费商用授权!
QwQ-32B

API接口信息

接口速度
暂无数据
暂无公开的 API 定价信息。
QwQ-32B

评测结果

QwQ-32B 当前已收录的代表性评测结果包括 AIME 2024(29 / 62,得分 79.50)、MMLU Pro(76 / 124,得分 76)、MATH-500(33 / 44,得分 91)。 本页还汇总了参数规模、上下文长度与 API 价格,便于结合评测结果与部署约束一起判断模型适配度。

思考模式
全部常规

综合评估

共 2 项评测
评测名称 / 模式
得分
排名/总数
MMLU Pro
常规模式
76
76 / 124
GPQA Diamond
常规模式
58
140 / 175

编程与软件工程

共 1 项评测
评测名称 / 模式
得分
排名/总数
HumanEval
常规模式
19
39 / 39

数学推理

共 2 项评测
评测名称 / 模式
得分
排名/总数
MATH-500
常规模式
91
33 / 44
AIME 2024
常规模式
79.50
29 / 62
查看评测深度分析与其他模型对比
QwQ-32B

发布机构

阿里巴巴
阿里巴巴
查看发布机构详情
QwQ-32B

模型解读

就在几个小时前,阿里巴巴开源了最新的一个推理大模型,QwQ-32B,该模型拥有类似o1、DeepSeek R1模型那样的推理能力,但是参数仅325亿,以Apache 2.0开源协议开源,这意味着大家可以完全免费商用。

QwQ-32B模型简介

其实,在2024年11月28日,阿里就已经开源了预览版的推理大模型QwQ-32B-Preview,彼时DeepSeek R1尚未发布(2024年11月20日,DeepSeek官宣了DeepSeek-R1-Lite-Preview,但是没开源)。这应该是当时最早开源的推理大模型之一。三个月后的今天,QwQ-32B正式开源,去掉了预览版的标签。

相比预览版,正式版的QwQ-32B各方面都有明显的提升,包括上下文长度增加到131K(预览版为32K),AIME评分提升50%等。

QwQ 是 Qwen 系列中的推理模型,相较于传统的指令微调模型,QwQ 具备更强的思考和推理能力,能够在下游任务中,尤其是高难度问题上,展现出显著的性能提升。QwQ-32B 作为该系列的中等规模版本,其推理能力在多个基准测试中表现出竞争力,与 DeepSeek-R1、o1-mini 等当前领先的推理模型相媲美。

QwQ-32B模型的主要技术参数如下:

QwQ-32B模型属性详情
模型类型自回归语言模型(Causal Language Model)
训练阶段预训练 & 后训练(监督微调 + 强化学习)
架构Transformer(RoPE、SwiGLU、RMSNorm、Attention QKV bias)
总参数量325亿(32.5B)
非嵌入层参数量310亿(31.0B)
层数64 层
注意力头(GQA)Q 头数 40,KV 头数 8
上下文窗口长度131,072 tokens

QwQ-32B模型的评测结果

根据阿里提供的数据,QwQ-32B模型各方面的评测结果都很不错,非常接近满血版的DeepSeek-R1模型,但是超过了OpenAI o1-mini。比预览版发布的时候提升也很明显。

QwQ-32B模型与其它模型的对比结果

上图可以明显看到,QwQ-32B模型明显好于DeepSeek-R1蒸馏版,也好于o1-mini,接近DeepSeek-R1(是否用过R1的数据?值得思考)。

此外,根据DataLearnerAI收集的AIME2024的测试结果,QwQ也是榜上靠前除了R1外唯一的开源大模型:

数据来源DataLearnerAI的AIME2024大模型评测数据:https://www.datalearner.com/ai-models/llm-benchmark-tests/37

可以看到,这个成绩超过了很多闭源模型,包括Grok3,但是前方OpenAI和Grok推理模式依然很强。

QwQ-32B的开源和在线演示

当前,QwQ-32B以Apache2.0形式开源,意味着可以免费商用。同时,在HuggingFace上也有这个模型的在线演示。大家可以去试用,具体地址参考DataLearnerAI的QwQ-32B模型的模型信息卡:https://www.datalearner.com/ai-models/pretrained-models/QwQ-32B

DataLearner 官方微信

欢迎关注 DataLearner 官方微信,获得最新 AI 技术推送

DataLearner 官方微信二维码