Appearance
通义千问 (Qwen) 模型详细信息
阿里云开发的通义千问系列模型,专为中文场景优化,提供完整的商业版和开源版本。
开发者平台
- 官方平台: bailian.console.aliyun.com
- API文档: help.aliyun.com/model-studio
- 开源模型: github.com/QwenLM
文本生成-通义千问
以下是通义千问模型的商业版。相较于开源版,商业版具有最新的能力和改进。
商业版模型参数量暂不透出。 各模型会不定期更新升级。如需使用固定版本,请选择快照版本。 建议优先使用稳定版或最新版,限流条件更宽松。
通义千问Max
通义千问系列效果最好的模型,适合复杂、多步骤的任务。
| 模型名称 | 版本 | 上下文长度 | 最大输入 | 最大输出 | 输入成本 | 输出成本 | 免费额度 |
|---|---|---|---|---|---|---|---|
| qwen3-max | 稳定版 | 262,144 | 258,048 | 65,536 | 阶梯计价 | 阶梯计价 | 各100万Token |
| qwen3-max-2025-09-23 | 快照版 | 262,144 | 258,048 | 65,536 | 阶梯计价 | 阶梯计价 | 各100万Token |
| qwen3-max-preview | 预览版 | 262,144 | 258,048 | 65,536 | 阶梯计价 | 阶梯计价 | 各100万Token |
注:免费额度有效期为百炼开通后90天内
Max系列阶梯计费详情:
| 单次请求的输入Token数 | 输入价格(每百万Token) | 输出价格(每百万Token) |
|---|---|---|
| 0 < Token ≤ 32K | $1.2 | $6 |
| 32K < Token ≤ 128K | $2.4 | $12 |
| 128K < Token ≤ 252K | $3 | $15 |
通义千问Plus
能力均衡,推理效果、成本和速度介于通义千问-Max和通义千问-Flash之间,适合中等复杂任务。
| 模型名称 | 版本 | 上下文长度 | 最大输入 | 最大输出 | 输入成本 | 输出成本 | 免费额度 |
|---|---|---|---|---|---|---|---|
| qwen-plus | 稳定版 | 1,000,000 | 思考模式: 995,904 非思考模式: 997,952 | 32,768 | 阶梯计价 | 阶梯计价 | 各100万Token |
| qwen-plus-latest | 最新版 | 1,000,000 | 思考模式: 995,904 非思考模式: 997,952 | 32,768 | 阶梯计价 | 阶梯计价 | 各100万Token |
Plus系列阶梯计费详情:
| 单次请求的输入Token数 | 输入价格(每百万Token) | 模式 | 输出价格(每百万Token) |
|---|---|---|---|
| 0 < Token ≤ 256K | $0.4 | 非思考模式 | $1.2 |
| 0 < Token ≤ 256K | $0.4 | 思考模式 | $4 |
| 256K < Token ≤ 1M | $1.2 | 非思考模式 | $3.6 |
| 256K < Token ≤ 1M | $1.2 | 思考模式 | $12 |
通义千问Flash
通义千问系列速度最快、成本极低的模型,适合简单任务。
| 模型名称 | 版本 | 上下文长度 | 最大输入 | 最大输出 | 输入成本 | 输出成本 | 免费额度 |
|---|---|---|---|---|---|---|---|
| qwen-flash | 稳定版 | 1,000,000 | 思考模式: 995,904 非思考模式: 997,952 | 32,768 | 阶梯计价 | 阶梯计价 | 各100万Token |
Flash系列阶梯计费详情:
| 单次请求的输入Token数 | 输入价格(每百万Token) | 输出价格(每百万Token) |
|---|---|---|
| 0 < Token ≤ 256K | $0.05 | $0.4 |
| 256K < Token ≤ 1M | $0.25 | $2 |
QwQ推理模型
基于Qwen2.5模型训练的QwQ推理模型,通过强化学习大幅度提升了模型推理能力。
| 模型名称 | 版本 | 上下文长度 | 最大输入 | 最大思维链长度 | 最大回复长度 | 输入成本 | 输出成本 | 免费额度 |
|---|---|---|---|---|---|---|---|---|
| qwq-plus | 稳定版 | 131,072 | 98,304 | 32,768 | 8,192 | $0.8 | $2.4 | 100万Token |
开源版本
Qwen3系列
| 模型名称 | 模式 | 上下文长度 | 最大输入 | 最大思维链长度 | 最大回复长度 | 输入成本 | 输出成本 | 免费额度 |
|---|---|---|---|---|---|---|---|---|
| qwen3-235b-a22b | 非思考 | 131,072 | 129,024 | - | 16,384 | $0.7 | $2.8 | 各100万Token |
| qwen3-235b-a22b | 思考 | 131,072 | 98,304 | 38,912 | 16,384 | $0.7 | $8.4 | 各100万Token |
| qwen3-32b | 非思考 | 131,072 | 129,024 | - | 16,384 | $0.7 | $2.8 | 各100万Token |
| qwen3-32b | 思考 | 131,072 | 98,304 | 38,912 | 16,384 | $0.7 | $8.4 | 各100万Token |
| qwen3-14b | 非思考 | 131,072 | 129,024 | - | 8,192 | $0.35 | $1.4 | 各100万Token |
| qwen3-8b | 非思考 | 131,072 | 129,024 | - | 8,192 | $0.18 | $0.7 | 各100万Token |
使用建议
场景推荐
- 复杂推理: qwen3-max 或 qwq-plus
- 日常对话: qwen-plus 或 qwen-flash
- 成本敏感: qwen-flash 或开源版本
- 中文优化: 所有Qwen系列都针对中文优化
- 思考推理: 支持思考模式的模型
成本优化
- 选择合适版本: Flash < Plus < Max,根据任务复杂度选择
- 利用阶梯计费: 控制输入长度在较低阶梯
- 使用开源版本: 本地部署可完全免费
- 免费额度: 新用户享受各100万Token免费额度
价格信息更新时间: 2025年10月具体价格以官方平台为准
