DataLearner 标志DataLearnerAI
最新AI资讯
大模型排行榜
大模型评测基准
大模型列表
大模型对比
资源中心
工具
语言中文
DataLearner 标志DataLearner AI

专注大模型评测、数据资源与实践教学的知识平台,持续更新可落地的 AI 能力图谱。

产品

  • 评测榜单
  • 模型对比
  • 数据资源

资源

  • 部署教程
  • 原创内容
  • 工具导航

关于

  • 关于我们
  • 隐私政策
  • 数据收集方法
  • 联系我们

© 2026 DataLearner AI. DataLearner 持续整合行业数据与案例,为科研、企业与开发者提供可靠的大模型情报与实践指南。

隐私政策服务条款
页面导航
目录
大模型列表ERNIE 5.0 Thinking Preview
ER

ERNIE 5.0 Thinking Preview

推理大模型

文心一言 ERNIE 5.0 Thinking Preview

发布时间: 2025-11更新于: 2026-04-06 11:21:59.64165
在线体验GitHubHugging FaceCompare
模型参数
24000亿
上下文长度
128K
中文支持
支持
推理能力

文心一言 ERNIE 5.0 Thinking Preview 是由 百度 发布的 AI 模型,发布时间为 2025-11,定位为 推理大模型,参数规模约为 24000.0B,上下文长度为 128K,采用 不开源 许可。

数据优先来自官方发布(GitHub、Hugging Face、论文),其次为评测基准官方结果,最后为第三方评测机构数据。 了解数据收集方法

ERNIE 5.0 Thinking Preview

模型基本信息

推理过程
支持
思考模式
思考模式 (默认)常规模式
上下文长度
128K tokens
最大输出长度
8192 tokens
模型类型
推理大模型
发布时间
2025-11
模型文件大小
暂无数据
MoE架构
是
总参数 / 激活参数
24000 亿 / 暂无数据
知识截止
暂无数据
ERNIE 5.0 Thinking Preview

开源和体验地址

代码开源状态
不开源
预训练权重开源
不开源- 不开源
GitHub 源码
暂无GitHub开源地址
Hugging Face
暂无开源HuggingFace地址
在线体验
https://ernie.baidu.com/
ERNIE 5.0 Thinking Preview

官方介绍与博客

官方论文
ERNIE 5.0: A 2.4 Trillion-Parameter Unified Multimodal Foundation Model
DataLearnerAI博客
暂无介绍博客
ERNIE 5.0 Thinking Preview

API接口信息

接口速度
3/5
暂无公开的 API 定价信息。
ERNIE 5.0 Thinking Preview

评测结果

ERNIE 5.0 Thinking Preview 当前已收录的代表性评测结果包括 Claw Bench(29 / 29,得分 51)。 本页还汇总了参数规模、上下文长度与 API 价格,便于结合评测结果与部署约束一起判断模型适配度。

思考模式
全部思考
思考模式细分 (1)
全部默认 (思考模式)

OpenClaw智能体能力综合测评

共 1 项评测
评测名称 / 模式
得分
排名/总数
Claw Bench
思考模式
51
29 / 29
查看评测深度分析与其他模型对比
ERNIE 5.0 Thinking Preview

发布机构

百度
百度
查看发布机构详情
文心一言 ERNIE 5.0 Thinking Preview

模型解读

ERNIE 5.0 Thinking Preview是百度于2025年11月发布的文心大模型5.0系列的预览版模型。2026年1月22日,百度正式发布了文心大模型5.0的正式版本,参数量达到2.4万亿,采用原生全模态统一建模技术,支持文本、图像、音频、视频等多种信息的输入与输出。ERNIE 5.0 Thinking Preview可视为正式版发布前的推理优化分支型号,专注于纯文本任务场景。

二、技术架构

根据百度ERNIE 5.0的技术报告,模型的底层架构采用Ultra-Sparse MoE(混合专家)架构,总参数量达到万亿级别,但在推理时实际激活的参数占比低于3%。该架构的特点是模态无关的专家路由机制,所有模态的数据在同一共享专家池中处理,不预先区分视觉、语言等标签。

此外,ERNIE 5.0引入了弹性预训练范式(Elastic Training),通过弹性深度和弹性宽度机制,从一次预训练中可抽取不同规格的子模型,降低重复训练的成本。

在对齐阶段,模型采用统一多模态强化学习策略,将逻辑推理、指令跟随与多模态生成任务纳入同一强化学习流程中协同优化。

三、性能数据

3.1 推理能力

根据第三方评测平台llmbase.ai的数据,ERNIE 5.0 Thinking Preview在GPQA(研究生级别科学推理测试)中取得77.7%的得分。MMLU Pro得分为83.0%,HLE(人类最后考试)得分为12.7%。该模型在LLMBase的数学复合指标中得分85.0。

3.2 代码能力

在编码任务方面,ERNIE 5.0 Thinking Preview的编码指数(Coding Index)为29.2。LiveCodeBench得分为81.2%,SciCode得分为37.5%。

3.3 榜单表现

LMArena大模型竞技场的历史数据显示,ERNIE-5.0-Preview-1203以1451分登上LMArena文本榜,位列中国第一。在创意写作和高难度指令理解等维度上,该模型的得分超过了Claude-Opus-4.1、GPT-5.2、GPT-5.1以及Qwen3-Max-Preview等主流模型。2026年1月15日,正式版模型ERNIE-5.0-0110以1460分登上LMArena文本榜国内第一、全球第八,数学能力排名全球第二。

四、定价与使用限制

ERNIE 5.0 Thinking Preview通过百度智能云千帆平台提供API服务,定价如下:

计费项价格(输入≤32k tokens)价格(32k<输入≤128k tokens)

输入¥0.80 / 百万 tokens¥1.00 / 百万 tokens

输出¥3.20 / 百万 tokens¥4.00 / 百万 tokens

上下文窗口为128,000 tokens,最大输出为8,192 tokens。模型为闭源模型,不支持权重开源。需要说明的是,不同第三方平台(如llmbase.ai)显示的定价存在差异——部分平台标注的输入输出价格为$0.00/1M,这一数据并非官方计费信息,可能是由于第三方平台与百度千帆官方定价系统的同步差异所致,实际使用时应以百度千帆官方文档为准。

五、使用场景

根据官方及第三方平台的说明,ERNIE 5.0 Thinking Preview主要适用于以下场景:

适合场景:

  • 纯文本问答与对话
  • 内容摘要与分类
  • 代码生成与软件开发
  • 企业知识问答(基于128k上下文窗口)
  • 复杂推理任务

不适合场景:

  • 强依赖图像、截图或视觉理解的任务(该模型以纯文本任务为主)
  • 输出极长的生成任务(输出成本较高,需评估预算)

六、小结

ERNIE 5.0 Thinking Preview是百度文心5.0系列中侧重推理和纯文本处理的预览版本。从第三方评测数据来看,其在GPQA(77.7%)、MMLU Pro(83.0%)、LiveCodeBench(81.2%)等基准测试中表现稳定,并在LMArena榜单中取得过国内前列的排名。该模型通过千帆平台以按量计费方式提供,上下文窗口128k tokens,适合处理中等规模的企业知识问答、代码生成和复杂推理类任务。作为预览版本,其定价和能力边界可能在正式版本发布后有所调整。

DataLearner 官方微信

欢迎关注 DataLearner 官方微信,获得最新 AI 技术推送

DataLearner 官方微信二维码