DataLearner 标志DataLearnerAI
最新AI资讯
大模型排行榜
大模型评测基准
大模型列表
大模型对比
资源中心
工具
语言中文
DataLearner 标志DataLearner AI

专注大模型评测、数据资源与实践教学的知识平台,持续更新可落地的 AI 能力图谱。

产品

  • 评测榜单
  • 模型对比
  • 数据资源

资源

  • 部署教程
  • 原创内容
  • 工具导航

关于

  • 关于我们
  • 隐私政策
  • 数据收集方法
  • 联系我们

© 2026 DataLearner AI. DataLearner 持续整合行业数据与案例,为科研、企业与开发者提供可靠的大模型情报与实践指南。

隐私政策服务条款
页面导航
目录
大模型列表DeepSeek V3.2 Speciale
DE

DeepSeek V3.2 Speciale

推理大模型

DeepSeek V3.2 Speciale

发布时间: 2025-12-01更新于: 2026-04-08 15:39:58.060669
在线体验GitHubHugging FaceCompare
模型参数
未披露
上下文长度
128K
中文支持
支持
推理能力

DeepSeek V3.2-Speciale 是 V3.2 的高算力推理变体,放宽输出长度限制以提升复杂推理能力,在 IMO、IOI、ICPC 等顶级竞赛评测中达到金牌水平,性能超过 GPT-5,与 Gemini-3.0-Pro 相当,不支持工具调用,MIT 协议开源。

数据优先来自官方发布(GitHub、Hugging Face、论文),其次为评测基准官方结果,最后为第三方评测机构数据。 了解数据收集方法

DeepSeek V3.2 Speciale

模型基本信息

推理过程
支持
思考模式
思考模式 (默认)常规模式
上下文长度
128K tokens
最大输出长度
32768 tokens
模型类型
推理大模型
发布时间
2025-12-01
模型文件大小
暂无数据
MoE架构
否
总参数 / 激活参数
暂无数据 / 不涉及
知识截止
暂无数据
DeepSeek V3.2 Speciale

开源和体验地址

代码开源状态
DEEPSEEK LICENSE AGREEMENT
预训练权重开源
DEEPSEEK LICENSE AGREEMENT- 免费商用授权
GitHub 源码
暂无GitHub开源地址
Hugging Face
https://huggingface.co/deepseek-ai/DeepSeek-V3.2-Speciale
在线体验
暂无在线体验地址
DeepSeek V3.2 Speciale

官方介绍与博客

官方论文
DeepSeek-V3.2-Speciale 简介与使用说明
DataLearnerAI博客
暂无介绍博客
DeepSeek V3.2 Speciale

API接口信息

接口速度
3/5
暂无公开的 API 定价信息。
DeepSeek V3.2 Speciale

评测结果

DeepSeek V3.2 Speciale 当前已收录的代表性评测结果包括 AIME2025(22 / 106,得分 96)、HLE(65 / 149,得分 30.60)、CodeForces(7 / 16,得分 2701)。 本页还汇总了参数规模、上下文长度与 API 价格,便于结合评测结果与部署约束一起判断模型适配度。

思考模式
全部思考
思考模式细分 (1)
全部默认 (思考模式)

综合评估

共 1 项评测
评测名称 / 模式
得分
排名/总数
HLE
思考模式
30.60
65 / 149

数学推理

共 1 项评测
评测名称 / 模式
得分
排名/总数
AIME2025
思考模式
96
22 / 106

编程与软件工程

共 1 项评测
评测名称 / 模式
得分
排名/总数
CodeForces
思考模式
2701
7 / 16
查看评测深度分析与其他模型对比
DeepSeek V3.2 Speciale

发布机构

DeepSeek-AI
DeepSeek-AI
查看发布机构详情
DeepSeek V3.2 Speciale

模型解读

DeepSeek V3.2 系列共包含三个版本:V3.2-Exp、V3.2 正式版和 V3.2-Speciale。V3.2-Exp 是2025年9月发布的实验版本,用于验证新架构;V3.2 正式版于2026年1月发布,是完成完整后训练流程的通用旗舰版本;V3.2-Speciale 是同期发布的高算力推理变体,专为极限推理场景设计,不支持工具调用。

DeepSeek V3.2-Speciale 与 V3.2 正式版共享相同的模型结构,区别在于推理时放宽了输出长度限制,允许模型使用更多的推理 token 来处理复杂问题。这一设计的代价是放弃了工具调用能力,Speciale 只支持纯思考模式,不支持在推理过程中调用外部工具。

在多项顶级学科竞赛评测中,V3.2-Speciale 达到了金牌水平,包括2025年国际数学奥林匹克(IMO)、国际信息学奥林匹克(IOI)、ICPC 世界总决赛以及中国数学奥林匹克(CMO)。在与闭源模型的横向对比中,V3.2-Speciale 在多个推理 benchmark 上超过了 GPT-5,与 Gemini-3.0-Pro 的表现相当。

需要说明的是,这些成绩依赖于更高的推理算力投入和更长的输出长度,实际使用成本高于 V3.2 正式版,也不适合日常对话、编码助手或需要工具调用的 agent 场景。Speciale 的定位是研究和竞赛导向,适合需要在数学推理、代码竞赛等高难度任务上压榨模型能力上限的场景。模型同样以 MIT 协议开源。

DataLearner 官方微信

欢迎关注 DataLearner 官方微信,获得最新 AI 技术推送

DataLearner 官方微信二维码