【量子位 2026年2月14日讯】春节AI大模型赛道再添重磅玩家,蚂蚁集团正式发布全球首个开源混合线性架构万亿参数模型Ring-2.5-1T。该模型以IMO金牌级数学推理能力与线性级推理速度的双重突破,打破了业界“深度思考必牺牲效率”的“不可能三角”,为开源大模型的长程任务落地提供了全新范式。
Ring-2.5-1T在核心能力上实现双重飞跃。在数学逻辑推理领域,其表现堪称“奥数大神”——IMO(国际数学奥林匹克竞赛)相关评测中斩获35分的金牌水平,CMO(中国数学奥林匹克竞赛)更是交出105分的超高分,远超国家集训队入选线;在任务执行层面,模型在搜索、编码等复杂长链条任务中展现出强大自主执行能力,SWE-Bench Verified、LiveCodeBench-v6等权威编程评测中表现亮眼,与主流闭源模型形成有力竞争。
架构创新是Ring-2.5-1T实现“又快又强”的核心密码。模型基于Ring-flash-linear-2.0技术路线,采用1:7配比的MLA(Multi-Head Latent Attention)与Lightning Linear Attention混合架构,通过增量训练方式对传统GQA层进行重构:部分GQA层转化为Lightning Linear Attention以拉满长程推理吞吐量,剩余层近似转换为MLA以极致压缩KV Cache,同时适配QK Norm与Partial RoPE特性确保性能不降级。这一架构重构使模型具备线性时间复杂度,在生成长度达32K以上时,访存规模降至原有1/10以下,生成吞吐量暴涨3倍多,彻底解决了深度思考模型推理慢、显存开销大的行业痛点。改造后,模型激活参数量从51B提升至63B,推理效率仍实现显著提升,让长程推理从“重资产操作”变为轻量化应用。
为强化逻辑严密性与实战能力,Ring-2.5-1T采用了双重训练机制。一方面引入密集奖励机制,像老师批改试卷般严格考核解题步骤的每一个推导环节,大幅减少逻辑漏洞,提升高阶证明技巧;另一方面通过大规模全异步Agentic RL训练,强化模型在长链条任务中的自主执行能力,使其从单纯的“做题家”升级为“实战派”。实测中,面对抽象代数群论证明题——要求证明有限群中非交换群的阶≥27并分析中心阶与正规子群特性,模型能熟练运用Cauchy定理,避开交换群误区,甚至引入Heisenberg群作为反例,逻辑推导严丝合缝;在Rust语言高并发线程池开发任务中,模型从零构建基于Arc、Mutex和Condvar的任务分发机制,实现“优雅关机”与线程崩溃自动重启功能,完美规避死锁陷阱,展现出老练的系统级编程能力。
此次发布并非单点突破,蚂蚁集团同步推出扩散语言模型LLaDA2.1与全模态大模型Ming-flash-omni-2.0,构建起多维度AI能力底座。LLaDA2.1采用非自回归并行解码技术,推理速度达535tokens/s,特定编程任务吞吐量更是高达892tokens/s,兼具Token编辑与逆向推理能力;Ming-flash-omni-2.0则打通视觉、音频、文本的底层边界,实现全模态统一表征与生成,支持高响应频率的实时感官交互。蚂蚁inclusionAI团队表示,系列模型的发布旨在提供可复用的技术底座,让开发者无需拼凑多模型即可快速构建多模态应用,后续还将聚焦视频时序理解、复杂图像编辑、长音频实时生成等关键技术突破。
目前,Ring-2.5-1T已适配Claude Code、OpenClaw等主流智能体框架,模型权重与推理代码已在GitHub、Hugging Face、ModelScope等平台同步开源。从底层架构创新到多模态生态布局,蚂蚁集团以组合拳形式展现了其在AI领域的技术底蕴,不仅将大模型竞争门槛提升至新高度,更通过开源开放让前沿技术惠及全行业,加速AI在千行百业的规模化落地。