逆市降价!Cursor凭新强化学习法实现编程模型性能价格双突破

AI 资讯2小时前发布 dennis
0

在全球大模型行业因 Token 消耗量指数级激增迎来集体涨价的背景下,硅谷企业 Cursor 却走出了一条反向赛道。其全新自研编程模型 Composer 2 不仅在性能上超越行业标杆 Claude Opus 4.6,更将定价直接降至对手的十分之一,完成了堪称 “脚踝斩” 的价格突破。而这一切的背后,是 Cursor 自研的全新自我总结强化学习方法,成功破解了大模型长任务处理的上下文瓶颈,为 AI 编程领域带来了效率与成本的双重革新。

2026 年初以来,随着 OpenClaw “龙虾” 等 AI Agent 的爆火,大模型单次调用的 Token 量呈百倍增长,全球算力资源供需失衡,国内外云厂商和大模型企业纷纷开启涨价模式。Anthropic 旗下的 Claude Opus 4.6 维持着每百万 Token 输入 5 美元、输出 25 美元的定价,OpenAI、腾讯云等企业也相继上调模型调用价格,行业进入 “成本回归” 的新阶段。而此时 Cursor 的逆势降价,无疑成为行业中的一抹亮色。

此次上线的 Composer 2,将 “性价比” 作为核心突破口,在性能与价格上实现双重超越。性能层面,该模型在 Terminal-Bench 2.0、SWE-bench Multilingual 等所有评测基准中均大幅提升,其中衡量智能体终端操作能力的 Terminal-Bench 2.0 成绩,已跃居 GPT-5.4 与 Claude Opus 4.6 之间,展现出强劲的工程任务处理能力。定价方面,标准版 Composer 2 输入仅 0.5 美元 / 百万 Token、输出 2.5 美元 / 百万 Token,仅为 Claude Opus 4.6 的十分之一;即便推出的速度更快的变体 Composer 2 Fast,定价也远低于行业标杆,在保持智能水平的同时,实现了速度与成本的平衡。

Cursor 能在逆市中实现性能价格双突破,核心在于其研发的自我总结强化学习方法。这一方法并非简单的推理技巧,而是通过训练内化为模型的核心能力,直击当前 AI 编程的最大痛点 —— 上下文窗口有限导致的长任务处理失效。如今多数 AI 编程助手在面对上万行代码、上百步操作的复杂工程任务时,常因上下文装不下而中途 “掉链子”,业界主流的摘要、滑动窗口等压缩方法,又极易丢失关键信息,导致任务越久越容易跑偏。

而 Cursor 的自我总结机制,让模型学会了 “主动做笔记”。当模型生成达到固定 Token 长度触发点时,会自动插入合成查询,在专属的草稿思考空间中总结当前上下文,将关键信息压缩后,结合对话状态、剩余任务等继续推进工作。更重要的是,这种总结能力被纳入强化学习的奖励机制:总结精准、保留关键信息,后续任务成功率更高则获得更高奖励;若总结丢失信息导致任务失败,模型将受到惩罚。通过这种方式,模型不断习得判断信息价值的能力,实现了高效的关键信息传递。

实测数据印证了这一方法的优越性:在高难度软件工程任务中,传统摘要法压缩后平均需 5000+Token,而 Composer 2 仅用 1000 个 Token,用量缩减至五分之一,且压缩带来的错误率直接降低约 50%。在 “将 Doom 游戏跑在 MIPS 架构上” 这一难倒一众模型的经典长任务中,Composer 2 历经 170 轮交互找到精准解法,还将 10 万 + Token 的内容成功压缩至 1000 个,完美实现了长链条任务的闭环处理。

这一技术突破,让 Cursor 跳出了单纯的应用程序开发商或模型提供商的定位,成为兼具技术研发与场景落地能力的新型 AI 企业。其模型迭代速度也持续加快,在 Composer 2 上线后,研究员已放出 Composer 3 的研发消息,让市场对其后续技术突破充满期待。而此次技术创新带来的行业影响远不止于此,在大模型行业集体涨价的当下,Cursor 用技术创新实现成本控制的思路,为行业提供了新的发展方向 —— 相较于单纯的价格竞争,通过技术突破提升效率、降低核心成本,才是行业可持续发展的关键。

从依赖供应 Claude 模型积累用户,到自研模型实现反超,Cursor 的快速成长印证了 AI 编程领域的技术迭代速度。而其自我总结强化学习方法的落地,不仅破解了长任务处理的行业难题,更让 AI 编程在复杂工程场景的落地成为可能。随着 Composer 系列模型的持续进化,AI 编程的效率边界正被不断打破,而这场由技术创新驱动的变革,也将推动整个大模型行业从 “价格竞争” 回归 “技术核心” 的发展本质。

© 版权声明

相关文章