DataLearner 标志DataLearnerAI
最新AI资讯
大模型排行榜
大模型评测基准
大模型列表
大模型对比
资源中心
工具
语言中文
DataLearner 标志DataLearner AI

专注大模型评测、数据资源与实践教学的知识平台,持续更新可落地的 AI 能力图谱。

产品

  • 评测榜单
  • 模型对比
  • 数据资源

资源

  • 部署教程
  • 原创内容
  • 工具导航

关于

  • 关于我们
  • 隐私政策
  • 数据收集方法
  • 联系我们

© 2026 DataLearner AI. DataLearner 持续整合行业数据与案例,为科研、企业与开发者提供可靠的大模型情报与实践指南。

隐私政策服务条款
返回总榜单

大模型代码编程能力评测排行榜

本页面提供大模型代码编程能力评测排行榜,涵盖 SWE-Bench Verified、SWE-Bench Pro、LiveCodeBench、SWE-bench Multilingual 等数据集,对 GPT、Claude、Qwen、DeepSeek 等模型进行对比。

数据更新于 2026-04-06 11:52:58

截至 2026年4月,本页覆盖 SWE-bench Verified, LiveCodeBench, SWE-Bench Pro - Public, SWE-bench Multilingual 等评测基准,聚焦 大模型代码编程能力评测排行榜 方向的模型对比。

点击模型名称可进入详情页查看上下文长度、许可方式与 API 价格。数据口径说明见 数据方法论。

代码能力参考综合排名

目前没有一个被普遍认可的代码能力综合排行榜。SWE-bench、HumanEval 等静态基准可以衡量特定技能,但容易被针对性优化("刷榜")。为此我们选取了两个切入角度不同的人类偏好参考榜单并列展示:LMArena Coding Arena 通过匿名盲测评测通用编程能力(调试、算法实现、代码生成等);DesignArena Code Category 专注评测具有视觉呈现效果的前端代码生成(网站、UI 组件、游戏等),两者方法论相同但考察场景各异,结合参考效果最佳。

LMArena Coding Arena

完整排名

基于真实开发者提交的通用编程任务(调试、算法、代码生成)进行匿名 A/B 盲测投票,Elo 算法动态排名。

数据更新于 2026-04-24

#模型Elo
1
Anthropic
Opus 4.7 (thinking)Anthropic
1572
2
Anthropic
Opus 4.7Anthropic
1560
3
Anthropic
Claude Opus 4.6 (thinking)Anthropic
1554
4
Anthropic
Claude Opus 4.6Anthropic
1549
5
F
Muse SparkFacebook AI研究实验室
1533
6
OpenAI
gpt-5.4-highOpenAI
1532
7
Google Deep Mind
Gemini 3.1 Pro PreviewGoogle Deep Mind
1531
8
Anthropic
Claude Opus 4 (thinking-32k)Anthropic
1531
9
xAI
grok-4.20-beta-0309-reasoningxAI
1520
10
智
GLM 5.1智谱AI
1520
来源:LMArena
基准评测
SWE-bench VerifiedLiveCodeBenchSWE-Bench Pro - PublicSWE-bench Multilingual
更多评测
参数规模:全部3B及以下7B13B

大模型性能评测结果

数据来源:DataLearnerAI
暂无图表数据
排名模型开源情况
腾讯AI实验室
Hunyuan-A13B-Instruct
—63.90——免费商用
华为
Pangu Pro MoE
—59.60——免费商用
阿里巴巴
Qwen3-Next
—56.60——免费商用
4
Facebook AI研究实验室
Llama3.1-70B-Instruct
—33.30——免费商用
5
Facebook AI研究实验室
Llama3.3-70B-Instruct
—33.30——免费商用
Hunyuan-A13B-Instruct
SWE-bench Verified—
LiveCodeBench63.90
SWE-Bench Pro - Public—
SWE-bench Multilingual—
免费商用
Pangu Pro MoE
SWE-bench Verified—
LiveCodeBench59.60
SWE-Bench Pro - Public—
SWE-bench Multilingual—
免费商用
Qwen3-Next
SWE-bench Verified—
LiveCodeBench56.60
SWE-Bench Pro - Public—
SWE-bench Multilingual—
免费商用
4
Llama3.1-70B-Instruct
SWE-bench Verified—
LiveCodeBench33.30
SWE-Bench Pro - Public—
SWE-bench Multilingual—
免费商用
5
Llama3.3-70B-Instruct
SWE-bench Verified—
LiveCodeBench33.30
SWE-Bench Pro - Public—
SWE-bench Multilingual—
免费商用
排序:

DesignArena Code Category

完整排名

基于 Arcada Labs 平台,对视觉前端代码任务(网站、UI 组件、游戏、数据可视化等)进行匿名投票,Bradley-Terry 模型动态排名。

数据更新于 2026-04-26

#模型Elo
1
Anthropic
Claude Opus 4.6Anthropic
1352
2
Anthropic
Claude Opus 4.7 (Thinking)Anthropic
1347
3
Anthropic
Claude Opus 4.6 (Thinking)Anthropic
1346
4
Z
GLM 5.1Zhipu AI
1343
5
Anthropic
Opus 4.7Anthropic
1338
6
Z
GLM 5 TurboZhipu AI
1336
7
Anthropic
Claude Sonnet 4.6Anthropic
1334
8
Moonshot AI
Kimi K2.6Moonshot AI
1326
9
F
Muse SparkFacebook AI研究实验室
1315
10
Z
GLM 5Zhipu AI
1311
来源:DesignArena
34B
65B
100B及以上
模型类型:全部推理大模型基座大模型指令优化/聊天优化大模型编程大模型
开源:全部开源闭源
模型发布时间截止: