DataLearner 标志DataLearnerAI
最新AI资讯
大模型排行榜
大模型评测基准
大模型列表
大模型对比
资源中心
工具
语言中文
DataLearner 标志DataLearner AI

专注大模型评测、数据资源与实践教学的知识平台,持续更新可落地的 AI 能力图谱。

产品

  • 评测榜单
  • 模型对比
  • 数据资源

资源

  • 部署教程
  • 原创内容
  • 工具导航

关于

  • 关于我们
  • 隐私政策
  • 数据收集方法
  • 联系我们

© 2026 DataLearner AI. DataLearner 持续整合行业数据与案例,为科研、企业与开发者提供可靠的大模型情报与实践指南。

隐私政策服务条款
页面导航
目录
大模型列表Kimi k1.5 (Long-CoT)
KI

Kimi k1.5 (Long-CoT)

推理大模型

Kimi k1.5 (Long-CoT)

发布时间: 2025-01-22更新于: 2025-02-15 19:46:44915
在线体验GitHubHugging FaceCompare
模型参数
未披露
上下文长度
128K
中文支持
支持
推理能力

Kimi k1.5 (Long-CoT) 是由 普林斯顿大学 发布的 AI 模型,发布时间为 2025-01-22,定位为 推理大模型,上下文长度为 128K,采用 不开源 许可。

数据优先来自官方发布(GitHub、Hugging Face、论文),其次为评测基准官方结果,最后为第三方评测机构数据。 了解数据收集方法

Kimi k1.5 (Long-CoT)

模型基本信息

推理过程
支持
思考模式
不支持思考模式
上下文长度
128K tokens
最大输出长度
暂无数据
模型类型
推理大模型
发布时间
2025-01-22
模型文件大小
暂无数据
MoE架构
否
总参数 / 激活参数
暂无数据 / 不涉及
知识截止
暂无数据
Kimi k1.5 (Long-CoT)

开源和体验地址

代码开源状态
不开源
预训练权重开源
不开源- 不开源
GitHub 源码
https://github.com/MoonshotAI/Kimi-k1.5
Hugging Face
暂无开源HuggingFace地址
在线体验
暂无在线体验地址
Kimi k1.5 (Long-CoT)

官方介绍与博客

官方论文
Kimi k1.5: Scaling Reinforcement Learning with LLMs
DataLearnerAI博客
暂无介绍博客
Kimi k1.5 (Long-CoT)

API接口信息

接口速度
暂无数据
暂无公开的 API 定价信息。
Kimi k1.5 (Long-CoT)

评测结果

Kimi k1.5 (Long-CoT) 当前已收录的代表性评测结果包括 MATH-500(19 / 44,得分 96.20)。 本页还汇总了参数规模、上下文长度与 API 价格,便于结合评测结果与部署约束一起判断模型适配度。

思考模式
全部常规

数学推理

共 1 项评测
评测名称 / 模式
得分
排名/总数
MATH-500
常规模式
96.20
19 / 44
查看评测深度分析与其他模型对比
Kimi k1.5 (Long-CoT)

发布机构

普林斯顿大学
普林斯顿大学
查看发布机构详情
Kimi k1.5 (Long-CoT)

模型解读

Kimi 1.5是月之暗面(Kimi)团队发布的多模态推理大语言模型,致力于提升推理能力。Kimi 1.5分为多个版本,其中Long-CoT(长链式推理)版本专注于深度推理和复杂任务解决,能够处理需要长时间思考的推理任务。

Long-CoT模型特点

Kimi 1.5 Long-CoT版本通过扩展上下文窗口和强化学习技术,能够处理更加复杂的推理任务。相比Short-CoT模型,Long-CoT能够在更长的上下文中进行推理,适用于需要多个推理步骤的复杂问题。

  1. 深度推理能力:通过长上下文窗口(最大128k tokens)和强化学习,Long-CoT模型可以深入分析复杂问题并生成多步骤推理,适用于难度较高的推理任务。
  2. 多模态协同:该模型不仅处理文本数据,还可以处理视觉数据,适应图文结合的任务,能够在多模态场景中进行深度推理,如MathVista和MMMU等任务。
  3. 优化推理策略:引入了在线镜像下降等优化技术,使得模型在复杂任务中依然保持高效的推理能力,不依赖于传统的复杂推理技术,如蒙特卡洛树搜索。

基准测试结果

Kimi 1.5 Long-CoT在多个基准测试中表现出色,尤其在处理需要深度推理的任务时,展现了强大的能力:

  • MATH-500:得分96.2,在数学推理任务中表现卓越。
  • AIME 2024:Pass@1得分77.5,在数学挑战中领先。
  • Codeforces:94th percentile,在编程任务中展现了强大的问题解决能力。

与其他模型如GPT-4o和Claude 3.5相比,Kimi 1.5 Long-CoT在复杂推理任务上表现更好,尤其在多步骤问题解决和长链式推理能力上具有优势。

应用前景

由于其强大的推理能力,Kimi 1.5 Long-CoT非常适合用于需要深度推理和多步骤分析的场景,如:

  • 高难度数学和逻辑推理:例如学术研究、数据分析等领域。
  • 复杂编程任务:解决编程中的挑战性问题,适用于AI辅助开发工具。
  • 跨模态推理:结合图像和文本的复杂任务,如视觉推理和图文问答。

结语

Kimi 1.5 Long-CoT通过扩展上下文窗口和优化推理策略,极大地提升了模型处理复杂任务的能力。其在多模态推理、深度分析和复杂问题解决方面的优势,使其成为未来高难度推理任务的理想选择。

DataLearner 官方微信

欢迎关注 DataLearner 官方微信,获得最新 AI 技术推送

DataLearner 官方微信二维码