DataLearner 标志DataLearnerAI
最新AI资讯
大模型排行榜
大模型评测基准
大模型列表
大模型对比
资源中心
工具
语言中文
DataLearner 标志DataLearner AI

专注大模型评测、数据资源与实践教学的知识平台,持续更新可落地的 AI 能力图谱。

产品

  • 评测榜单
  • 模型对比
  • 数据资源

资源

  • 部署教程
  • 原创内容
  • 工具导航

关于

  • 关于我们
  • 隐私政策
  • 数据收集方法
  • 联系我们

© 2026 DataLearner AI. DataLearner 持续整合行业数据与案例,为科研、企业与开发者提供可靠的大模型情报与实践指南。

隐私政策服务条款
页面导航
目录
大模型列表Qwen3-Embedding-0.6B
QW

Qwen3-Embedding-0.6B

embedding模型

Qwen3-Embedding-0.6B

发布时间: 2025-06-05更新于: 2025-06-08 22:04:521,733
在线体验GitHubHugging FaceCompare
模型参数
6亿
上下文长度
32K
中文支持
支持
推理能力

Qwen3-Embedding-0.6B 是由 阿里巴巴 发布的 AI 模型,发布时间为 2025-06-05,定位为 embedding模型,参数规模约为 6.0B,上下文长度为 32K,模型文件大小约 1.2GB,采用 Apache 2.0 许可。

数据优先来自官方发布(GitHub、Hugging Face、论文),其次为评测基准官方结果,最后为第三方评测机构数据。 了解数据收集方法

Qwen3-Embedding-0.6B

模型基本信息

推理过程
不支持
思考模式
不支持思考模式
上下文长度
32K tokens
最大输出长度
1024 tokens
模型类型
embedding模型
发布时间
2025-06-05
模型文件大小
1.2GB
MoE架构
否
总参数 / 激活参数
6 亿 / 不涉及
知识截止
暂无数据
Qwen3-Embedding-0.6B

开源和体验地址

代码开源状态
Apache 2.0
预训练权重开源
Apache 2.0- 免费商用授权
GitHub 源码
暂无GitHub开源地址
Hugging Face
https://huggingface.co/Qwen/Qwen3-Embedding-8B
在线体验
暂无在线体验地址
Qwen3-Embedding-0.6B

官方介绍与博客

官方论文
Qwen3 Embedding: Advancing Text Embedding and Reranking Through Foundation Models
DataLearnerAI博客
向量大模型新选择,阿里开源向量大模型Qwen-Embedding和重排序大模型Qwen-Reranker,开源向量检索能力第一名!完全免费开源。
Qwen3-Embedding-0.6B

API接口信息

接口速度
4/5
暂无公开的 API 定价信息。
Qwen3-Embedding-0.6B

评测结果

Qwen3-Embedding-0.6B 当前已收录的代表性评测结果包括 MTEB(4 / 5,得分 64.34)。 本页还汇总了参数规模、上下文长度与 API 价格,便于结合评测结果与部署约束一起判断模型适配度。

思考模式
全部常规

文本向量检索

共 1 项评测
评测名称 / 模式
得分
排名/总数
MTEB
常规模式
64.34
4 / 5
查看评测深度分析与其他模型对比
Qwen3-Embedding-0.6B

发布机构

阿里巴巴
阿里巴巴
查看发布机构详情
Qwen3-Embedding-0.6B

模型解读

Qwen3-Embedding-0.6B是阿里开源的6亿参数规模的向量大模型,支持100+多种语言。作为Qwen3 Embedding系列中最为轻量的版本,它的核心特色在于高效率与低资源消耗。


该模型专为资源受限的应用场景设计,例如在移动端、边缘设备或对计算成本与响应延迟有严格要求的在线服务中部署。它以最小的计算开销,为这些场景提供了可靠的文本嵌入能力。


核心特性

高效率与轻量化: 这是0.6B版本最显著的特点。其仅有6亿的参数规模,使其在推理时速度更快、占用内存更少,非常适合需要快速响应和低成本部署的业务。
全面的灵活性: 作为Qwen3 Embedding系列的一员,它为用户提供了在性能、效果和资源消耗谱系中最轻量级的选择。该模型同样支持用户自定义指令,允许针对特定任务进行优化。
多语言能力: 尽管模型规模较小,但得益于Qwen3基础模型的支持,它依然具备了覆盖超过100种语言的多语言处理能力,这在同等规模的模型中是一个显著优势。

模型架构与训练

Qwen3-Embedding-0.6B同样基于Qwen3基础模型,采用双编码器(dual-encoder)架构和LoRA微调技术进行开发。其训练过程也遵循了与系列中其他模型相同的三阶段范式,确保了模型质量的可靠性。


性能表现

Qwen3-Embedding-0.6B的价值在于其效率与性能的平衡。虽然其在基准测试中的得分低于系列中更大规模的模型,但对于其参数规模而言,表现依然具有很强的竞争力。

在 MTEB (多语言) 排行榜上,平均得分为 65.51。
在 MTEB (英语 v2) 排行榜上,平均得分为 71.74。
在 C-MTEB (中文) 排行榜上,平均得分为 68.27。

这些数据表明,Qwen3-Embedding-0.6B是一个出色的轻量级解决方案,能够在保证多语言能力和可靠性能的同时,最大限度地降低部署和运行成本。

DataLearner 官方微信

欢迎关注 DataLearner 官方微信,获得最新 AI 技术推送

DataLearner 官方微信二维码