DeepSeek V3.2 (正式版) 是由 DeepSeek-AI 发布的 AI 模型,发布时间为 2025-12-01,参数规模约为 6710.0B,上下文长度为 164K,模型文件大小约 1.34TB,采用 DEEPSEEK LICENSE AGREEMENT 许可。
数据优先来自官方发布(GitHub、Hugging Face、论文),其次为评测基准官方结果,最后为第三方评测机构数据。 了解数据收集方法
DeepSeek V3.2 当前已收录的代表性评测结果包括 LiveCodeBench(13 / 109,得分 83.30)、AIME2025(30 / 107,得分 93.10)、GPQA Diamond(50 / 163,得分 82.40)。 本页还汇总了参数规模、上下文长度与 API 价格,便于结合评测结果与部署约束一起判断模型适配度。
DeepSeek V3.2 为 V3.2 系列的正式版,官方将 App、Web 与 API 的默认服务从 V3.2-Exp 升级为 V3.2。其设计目标是在通用问答与 Agent 任务场景中平衡思考推理能力与输出长度,并在同一模型下同时支持思考模式与非思考模式。
V3.2 系列承袭此前在 V3.2-Exp 中引入的稀疏注意力方向探索(如 DeepSeek Sparse Attention, DSA)等长上下文效率优化思路,并在正式版中结合更大规模的后训练与强化学习管线(官方称包含面向智能体的合成任务与大规模 RL 训练),以提升泛化能力与工具使用中的鲁棒性。
模型为文本向通用大语言模型,官方强调其在通用问答、工具使用与 Agent 评测集上的表现,且在思考模式与非思考模式下均可进行工具调用(区别于过往版本思考模式下无法使用工具)。
官方材料给出在多项智能体工具调用评测集中的对比结果,指向当前开源模型的领先水平;文档未提供统一的参数规模与完整基准表的全部原始数值,本站保持对官方表格的描述性转述。
V3.2 已在官网 Web、App 与 API 上线;开源仓库提供权重/模型卡,并可通过官方聊天入口进行交互体验。
欢迎关注 DataLearner 官方微信,获得最新 AI 技术推送
