Qwen3.5-27B 评测详情
Qwen3.5-27B 当前已收录的代表性评测结果包括 Pinch Bench(2 / 37,得分 90)、IF Bench(2 / 27,得分 76.50)、MMLU Pro(16 / 124,得分 86.10)。本页还提供与 1 个竞品模型及 2 个前代或同系列模型的对比,在有数据时会展示性能和价格视图。并附有 1 个数据来源链接供参考。
评测结果
Qwen3.5-27B
评测结果
综合评估
共 5 项评测评测名称 / 模式
得分
排名/总数
编程与软件工程
共 3 项评测评测名称 / 模式
得分
排名/总数
竞品对比
Qwen3.5-27B 与同类主流模型的评测得分对比
Qwen3.5-27BGemma 4 31B
评测类别:
柱状图按当前筛选范围内每个模型在各评测中的最高分展示;具体模式明细请看下方表格。
评测得分对比
5 项可对比评测得分汇总。每个模型展示最佳得分,模式在分数下方标注。
| 评测项 | Qwen3.5-27B当前 | Gemma 4 31B |
|---|---|---|
GPQA Diamond 综合评估 | 85.50开启思考 | 84.30开启思考 |
HLE 综合评估 | 48.50开启思考 | 工具 | 26.50开启思考 | 工具 |
MMLU Pro 综合评估 | 86.10开启思考 | 85.20开启思考 |
LiveCodeBench 编程与软件工程 | 80.70开启思考 | 工具 | 80.00开启思考 |
τ²-Bench Agent能力评测 | 79.00开启思考 | 工具 | 76.90开启思考 | 工具 |
Qwen3.5-27B 与同类模型的标准 API 价格对比
按模型并排展示标准文本输入价与输出价;若存在超长上下文加价,仅保留阈值内标准价,并在下方说明适用范围。
数据来源:DataLearnerAI,展示默认供应商的标准文本价格。
这些模型暂未提供可比较的标准文本价格。
历代版本对比
Qwen3.5-27B 系列各版本的评测成绩纵向对比
评测类别:
柱状图按当前筛选范围内每个模型在各评测中的最高分展示;具体模式明细请看下方表格。
评测得分对比
5 项可对比评测得分汇总。每个模型展示最佳得分,模式在分数下方标注。· 点击任意行可切换下方趋势图。
| 评测项 | Qwen3.5-27B当前 | Qwen3-32B | Qwen2.5-32B |
|---|---|---|---|
C-Eval 综合评估 | 90.50开启思考 | 87.30开启思考 | -- |
GPQA Diamond 综合评估 | 85.50开启思考 | 68.40开启思考 | -- |
MMLU Pro 综合评估 | 86.10开启思考 | -- | 69.23常规模式 |
CodeForces 编程与软件工程 | 1899.00开启思考 | 1977.00开启思考 | -- |
LiveCodeBench 编程与软件工程 | 80.70开启思考 | 工具 | 65.70开启思考 | 51.20常规模式 |
单评测历史趋势图
当前查看:C-Eval · 综合评估
选择评测
Qwen3.5-27B 所在系列的标准 API 价格对比
按模型并排展示标准文本输入价与输出价;若存在超长上下文加价,仅保留阈值内标准价,并在下方说明适用范围。
数据来源:DataLearnerAI,展示默认供应商的标准文本价格。
这些模型的价格币种或计费单位不一致,暂不直接绘制统一柱状图,以下展示原始价格。
Qwen3-32B
标准输入: 0.7 美元/100 万tokens
标准输出: 2.8 美元/100 万tokens
| 模型 | 供应商 | 标准输入 | 标准输出 | 标准价适用于 |
|---|---|---|---|---|
Qwen3-32B | — | 0.7 美元/100 万tokens | 2.8 美元/100 万tokens | — |