DataLearner 标志DataLearnerAI
最新AI资讯
大模型排行榜
大模型评测基准
大模型列表
大模型对比
资源中心
工具
语言中文
DataLearner 标志DataLearner AI

专注大模型评测、数据资源与实践教学的知识平台,持续更新可落地的 AI 能力图谱。

产品

  • 评测榜单
  • 模型对比
  • 数据资源

资源

  • 部署教程
  • 原创内容
  • 工具导航

关于

  • 关于我们
  • 隐私政策
  • 数据收集方法
  • 联系我们

© 2026 DataLearner AI. DataLearner 持续整合行业数据与案例,为科研、企业与开发者提供可靠的大模型情报与实践指南。

隐私政策服务条款
页面目录
目录
首页模型对比Qwen3-235B-A22B与GPT OSS 120B模型对比

Qwen3-235B-A22B与GPT OSS 120B模型对比

自动展示选中模型的核心信息与各评测得分,可左右滑动查看完整表格。 当前对比 2 个模型的评测数据与核心参数。

Qwen3-235B-A22B-ThinkingGPT OSS 120B242 次浏览
规格对比

Qwen3-235B-A22B-Thinking在四项评测基准(知识问答、常识推理、数学推理)中整体领先GPT OSS 120B,尤其在高难度数学推理(AIME2025)中优势明显。同时,Qwen在上下文长度和推理精度上更适合复杂任务,但GPT OSS 120B在输出长度上具有压倒性优势,并且API价格更低,适合长输出、大批量生成的场景。

洞察结论

  1. 评测性能差异显著 Qwen在MMLU Pro、HLE和AIME2025中均有明显领先,其中数学推理(92.3 vs 83)差距最大,显示其在复杂逻辑与计算能力上的优化成效。 两者在GPQA Diamond(常识推理)差距较小,仅领先1分,说明在一般推理任务上性能接近。
  2. 架构与参数布局差异 Qwen总参数量(305B)和激活参数量(33B)高于GPT OSS 120B(117B/51B),体现不同的MoE激活策略:Qwen激活参数量更小但总量更大,可能更注重稀疏激活效率。 GPT OSS模型体积达240GB,是Qwen(31.17GB)的近8倍,部署成本更高。
  3. 上下文与输出能力的互补性 Qwen支持最大256K上下文,适合长文档理解与多轮推理。 GPT OSS 120B的最大输出长度(131,072 tokens)远超Qwen(16,384 tokens),在长篇生成或批量产出中更具优势。
  4. 价格与商用取向 GPT OSS 120B输入价格(0.15 美元/百万tokens)和输出价格(0.6美元)均低于Qwen(0.2 / 2.4美元),在大规模推理与生成任务中成本更优。 两者均允许免费商用,但GPT OSS 120B的低价策略可能更易被广泛采用。
阿里巴巴

Qwen3-235B-A22B-Thinking

QW

Qwen3-235B-A22B-Thinking-2507

发布时间2025-07-30
上下文256K
参数量305
思考模式(Thinking Mode)
查看详情在线体验
OpenAI

GPT OSS 120B

GP

GPT Opensources 120B

发布时间2025-08-06
上下文128K
参数量117
常规模式(Non-Thinking Mode)思考模式(Thinking Mode)
查看详情

性能评测对比

支持不同模式与工具的榜单对比。

数据优先来自官方发布(GitHub、Hugging Face、论文),其次为评测基准官方结果,最后为第三方评测机构数据。 了解数据收集方法

思考模式
工具使用
联网能力

Best Overall

—

Best Single

—

Thinking 模式(默认)

Qwen3-235B-A22B-Thinking · 1 模态支持

评测得分对比

模型数据收集自官网、Artificial Analysis等页面

筛选: 默认模式0 全部模式 · 0 评测基准
暂无数据

评测得分表格

完整列出各模型/模式的评测得分,便于横向比较。

其他能力

能力与规格明细

是否 MoE、商业授权、模态支持等附加能力对比。

功能与规格
QW
Qwen3-235B-A22B-Thinking阿里巴巴
GP
GPT OSS 120BOpenAI

模型信息卡片

开发机构
阿里巴巴OpenAI
模型全名
Qwen3-235B-A22B-Thinking-2507GPT Opensources 120B
模型简介
未提供未提供
模型类型
推理大模型推理大模型
模型代号
Qwen3-235B-A22B-Thinking-2507gpt-oss-120b
发布时间
2025-07-302025-08-06
MoE 架构
支持支持

规格与性能

上下文
256K128K
参数量
305117
激活参数量
3351
模型规模
34b13b
模型大小
31.17GB240GB
推理速度
推理等级
最大输出
16384131072
支持模式
思考模式(Thinking Mode)
常规模式(Non-Thinking Mode)思考模式(Thinking Mode)

开源与许可

代码开源
未提供未提供
权重开源
未提供未提供
商业授权
免费商用授权免费商用授权

模态支持

文本 输入/输出
/
/
图片 输入/输出
/
/
音频 输入/输出
/
/
视频 输入/输出
/
/
Embedding 输入/输出
/
/

API 接口详情

文本 价格
输入: 0.2 美元/100 万tokens输出: 2.4 美元/100 万tokens
输入: 0.15 美元/100万 tokens输出: 0.6 美元/100万 tokens
图片 API 价格
未提供未提供
音频 API 价格
未提供未提供
视频 API 价格
未提供未提供
Embedding API 价格
未提供未提供

资源与链接

GitHub
仓库仓库
Hugging Face
模型页模型页
官方页面
未提供未提供
实用指南
未提供未提供
论文/报告
Qwen3: Think Deeper, Act FasterIntroducing gpt-oss
DataLearnerAI
未提供OpenAI开源2个全新大模型,比肩o3-mini的GPT-OSS-20B和比肩o4-mini的GPT-120B,完全免费商用授权

API 价格

API 价格对比

输入输出 token 价格并排展示

模型数据收集自官网、Artificial Analysis等页面