DataLearner 标志DataLearnerAI
最新AI资讯
大模型排行榜
大模型评测基准
大模型列表
大模型对比
资源中心
工具
语言中文
DataLearner 标志DataLearner AI

专注大模型评测、数据资源与实践教学的知识平台,持续更新可落地的 AI 能力图谱。

产品

  • 评测榜单
  • 模型对比
  • 数据资源

资源

  • 部署教程
  • 原创内容
  • 工具导航

关于

  • 关于我们
  • 隐私政策
  • 数据收集方法
  • 联系我们

© 2026 DataLearner AI. DataLearner 持续整合行业数据与案例,为科研、企业与开发者提供可靠的大模型情报与实践指南。

隐私政策服务条款
页面导航
目录
大模型列表Composer 1
CO

Composer 1

基础大模型

Composer 1

发布时间: 2025-10-29更新于: 2026-03-22 13:59:19.850716
在线体验GitHubHugging FaceCompare
模型参数
未披露
上下文长度
200K
中文支持
不支持
推理能力

Composer 1 是由 Cursor 发布的 AI 模型,发布时间为 2025-10-29,定位为 基础大模型,参数规模约为 0.0B,上下文长度为 200K,采用 不开源 许可。

数据优先来自官方发布(GitHub、Hugging Face、论文),其次为评测基准官方结果,最后为第三方评测机构数据。 了解数据收集方法

Composer 1

模型基本信息

推理过程
不支持
思考模式
思考模式 (默认)常规模式
上下文长度
200K tokens
最大输出长度
4096 tokens
模型类型
基础大模型
发布时间
2025-10-29
模型文件大小
暂无数据
MoE架构
否
总参数 / 激活参数
暂无数据 / 不涉及
知识截止
暂无数据
Composer 1

开源和体验地址

代码开源状态
不开源
预训练权重开源
不开源- 不开源
GitHub 源码
暂无GitHub开源地址
Hugging Face
暂无开源HuggingFace地址
在线体验
暂无在线体验地址
Composer 1

官方介绍与博客

官方论文
Composer: Building a fast frontier model with RL
DataLearnerAI博客
暂无介绍博客
Composer 1

API接口信息

接口速度
4/5
💡默认单位:$/100万 tokens。若计费单位不同,则以供应商公开的原始标注为准。
了解不同定价模式详解
标准模式
类型适用条件输入输出
文本-$1.25/ 1M$10.00/ 1M
缓存定价Prompt缓存
类型有效期写入读取
文本--$0.125/ 1M
Composer 1

评测结果

Composer 1 当前已收录的代表性评测结果包括 Terminal Bench 2.0(41 / 43,得分 40)、SWE-bench Multilingual(17 / 17,得分 56.90)。 本页还汇总了参数规模、上下文长度与 API 价格,便于结合评测结果与部署约束一起判断模型适配度。

思考模式
全部思考
思考模式细分 (1)
全部默认 (思考模式)

AI Agent - 工具使用

共 1 项评测
评测名称 / 模式
得分
排名/总数
Terminal Bench 2.0
思考模式
40
41 / 43

编程与软件工程

共 1 项评测
评测名称 / 模式
得分
排名/总数
SWE-bench Multilingual
思考模式
56.90
17 / 17
查看评测深度分析与其他模型对比
Composer 1

发布机构

Cursor
Cursor
查看发布机构详情
Composer 1

模型解读

Composer 1 是AI编程工具Cursor的开发商Anysphere于2025年10月29日发布的自主研发代码大语言模型(LLM),随Cursor 2.0平台一同推出。该模型定位于“代理式编码”(agentic coding)模型,专为在真实开发环境中高效、准确地执行编码任务而设计。

在Composer 1发布之前,Cursor平台主要集成第三方领先的LLM,包括OpenAI、Anthropic、Google和xAI等提供的模型。Composer 1的推出标志着Cursor从模型集成者向模型开发者的战略转型。

二、技术架构与训练方法

2.1 模型架构

Composer 1采用混合专家(Mixture-of-Experts, MoE)架构,支持长上下文处理。Cursor研究科学家Sasha Rush在公开渠道披露,该模型通过强化学习(Reinforcement Learning, RL) 训练而成,是一个“大型MoE模型”。

MoE架构的核心优势在于推理时仅激活模型参数的一个子集,从而在保持较高智能水平的同时实现更快的推理速度。

2.2 训练方法

强化学习训练框架
Composer 1的训练采用基于代理的强化学习方法,训练环境尽可能模拟生产环境。训练数据以用户查询的形式输入模型,模型通过调用工具来完成目标。关键创新在于并行运行大量训练轨迹——同时运行多个Cursor实例,并对输出进行评分以确定哪些工具调用策略更有效。

训练环境
训练过程中,模型在完整的代码库环境中运行,使用包括文件编辑、语义搜索和终端命令在内的一系列生产工具来解决实际的工程问题。每个训练迭代都涉及解决具体挑战,如生成代码编辑、制定计划或提供针对性解释。

基础设施
Cursor为训练Composer 1构建了定制的强化学习基础设施,结合PyTorch和Ray框架,在数千个NVIDIA GPU上进行异步训练。团队开发了专门的MXFP8 MoE内核和混合分片数据并行技术,以最小化通信开销实现大规模模型更新。

2.3 基础设施架构

训练系统由三种主要服务器类型协同工作:

服务器类型功能描述

训练器(Trainer)使用PyTorch,采用MXFP8低精度训练定制内核,MoE层可实现3.5倍加速

推理服务器(Inference Server)使用Ray编排训练轨迹,处理工具调用和优势管理,解决“落后任务”问题

环境服务器(Environment Server)使用microVM启动状态化环境,执行文件更改、终端命令和代码检查

2.4 工具空间与代理行为

Composer 1作为代理运行时,通过工具空间进行交互。系统设计了约10种生产工具:

  • 读取文件
  • 编辑文件
  • 代码库搜索
  • 代码检查(lint)收集
  • 终端命令执行

代理可以串行或并行调用这些工具,并行调用能力对实现快速用户体验至关重要。

行为演进:通过强化学习训练,模型的代理行为得到优化。训练早期,模型会进行过多缺乏充分依据的编辑;随着训练推进,模型学会在执行更改前读取更多文件和进行更多搜索,从而产生更准确、更周全的代码修改。

2.5 生产与训练一体化

Cursor的关键设计是生产环境与训练基础设施的协同设计。用于运行云端代理的生产代理服务器与RL训练使用相同的环境。这种设计确保训练环境与生产环境完全一致,使模型能够学习成为这些工具的高级用户。例如,Cursor的自定义嵌入模型用于语义搜索,Composer 1在生产中使用完全相同的语义搜索模型和结构进行训练。

三、性能表现与技术指标

3.1 速度指标

  • 输出速度:Composer 1的生成速度达到250 tokens/秒,约为当时领先快速推理模型的两倍,可比前沿系统的四倍。这一速度指标在其发布时处于行业领先水平。
  • 首个token延迟:在实际测试中,Composer 1的首个token响应时间持续低于1秒。
  • 任务完成时间:Cursor官方表示,Composer 1的大多数交互在30秒内完成。

3.2 智能水平

Cursor Bench基准
Cursor开发了内部评估套件Cursor Bench,该基准基于真实的开发者代理请求构建,不仅衡量代码正确性,还评估模型对现有抽象、代码风格惯例和工程实践的遵循程度。

在该基准上,Composer 1达到了“前沿水平的编码智能”。Cursor发布的对比分组将模型分为以下类别:

  • Best Open(如Qwen Coder、GLM 4.6)
  • Fast Frontier(如Haiku 4.5、Gemini Flash 2.5)
  • Frontier 7/2025(2025年年中最佳模型)
  • Best Frontier(如GPT-5、Claude Sonnet 4.5)

Composer 1的智能水平与“中型前沿系统”相当,同时在所有测试类别中实现了最高记录生成速度。

3.3 第三方测试结果

Composio测试(2025年11月)
在构建Python AI代理的对比测试中:

指标Composer 1Claude Sonnet 4.5

Token消耗约200,000约427,000

任务完成时间约3分钟(首次响应)约10分钟

代码质量完整实现相当,但存在API过时问题

测试结论:Composer 1以不到一半的时间、少于一半的token消耗实现了与Claude Sonnet 4.5相当或略优的代码质量。

Chrome扩展构建测试(2025年11月)
在构建Chrome扩展的实际任务中,Composer 1首次构建时间约25分钟,消耗token 40,000-50,000,估算成本约$0.15-0.25。

编程任务综合测试(2025年11月)
在为期一周的22个任务测试中:

  • 18个任务达到可交付首稿(无需重写)
  • 2个任务需要大幅修改
  • 2个任务因模型过度讨论边界情况而放弃

3.4 上下文窗口

Composer 1支持200K token的有效上下文容量。Cursor通过项目索引和分块策略实现大型上下文工作区,模型能够智能提取所需文件,在150K-180K token的代码量范围内保持准确的代码建议。

四、功能特性

4.1 代理式编码能力

Composer 1的核心定位是“代理式编码”模型,能够自主规划、编写、测试和审查代码。这种设计超越传统的代码补全功能,实现多文件协调编辑和仓库级重构。

4.2 多语言支持

实际测试验证Composer 1在以下语言的表现:

  • Python/TypeScript/React:表现最强
  • Go:表现良好
  • Rust:具备基本意识但处理复杂生命周期时置信度较低

4.3 工具调用能力

模型学会有效选择工具、利用并行性、避免不必要的响应。训练过程中发展出运行单元测试、修复linter错误、自主执行多步代码搜索等涌现行为。

五、定价与可用性

5.1 订阅方案

Cursor提供多层级订阅方案:

层级价格包含内容

免费版(Hobby)免费基础功能

专业版(Pro)$20/月约500次快速代理请求

Pro+-更高使用限额

超享版(Ultra)$200/月约10,000次快速代理操作

团队版(Teams)$40/用户/月包含管理功能、审计日志等

5.2 定价模式

Composer 1定价与GPT-5相同:$1.25/百万输入token,$10/百万输出token。相比Claude 4.5($3/百万输入token,$15/百万输出token)具有成本优势。

5.3 API可用性

截至2025年10月,Composer 1不提供直接API调用方式,仅可通过Cursor IDE访问。

六、集成与平台支持

6.1 Cursor 2.0 集成

Composer 1完全集成于Cursor 2.0平台,该平台引入:

  • 多代理界面:最多8个代理并行运行,各自在独立工作区中使用git工作树或远程机器
  • 内嵌浏览器:代理可直接在IDE中运行和测试代码
  • 改进的代码审查:聚合多文件差异快速检查
  • 沙箱终端:隔离代理执行的shell命令
  • 语音模式:语音控制代理会话

6.2 代码智能优化

Cursor优化了Language Server Protocols(LSP)以提升Python和TypeScript项目的诊断和导航速度,降低Composer 1与大型仓库交互或多文件更新时的延迟。

七、开发背景与争议

7.1 原型发展:Cheetah

Composer 1的开发源于内部原型Cheetah,主要用于测试低延迟推理。Cheetah的成功验证了“快速代理体验”的价值,用户反馈将其描述为“外星科技”。Sasha Rush表示:“Cheetah是模型的v0版本,主要用于测试速度。根据指标,Composer 1保持了相同的速度,但智能水平大幅提升。”

7.2 基础模型争议

Composer 1发布后,关于其基础模型的来源引发了讨论。部分用户发现Composer 1在推理过程中会输出中文内容,且使用的分词器与DeepSeek相同。这引发了关于Composer 1是否为“套壳”中国开源模型(如智谱GLM或DeepSeek)的讨论。

在Hacker News上面对“Composer是否基于现有开源基础模型微调”的直接提问时,Sasha Rush回应:

“我们的主要精力集中在RL后训练上。我们认为这是让模型成为强大交互代理的最佳方式。”

关于早期预览模型Cheetah基于xAI Grok的传言,Rush明确表示“完全不属实”。

DataLearner 官方微信

欢迎关注 DataLearner 官方微信,获得最新 AI 技术推送

DataLearner 官方微信二维码