【量子位 2026年1月12日讯】一场汇聚中国AI领域”半壁江山”的巅峰对话在清华大学落下帷幕。由清华大学基础模型北京市重点实验室发起的AGI-Next前沿峰会,首次集齐智谱AI唐杰、Kimi杨植麟、阿里林俊旸、腾讯姚顺雨这四位被业界称为”基模四杰”的顶尖专家。从Chat范式终结到Agent落地,从中国AI反超概率到自主学习突破路径,这场信息密度拉满的技术对话,为2026年全球AI发展划出清晰航向。
尤为吸睛的是,刚加盟腾讯不久的姚顺雨以”远程贴脸投屏”方式亮相,用一句”我现在是不是一张大脸在屏幕上”打破严肃氛围,却也开启了一场关于AI产业现实与未来的深度思辨。四位嘉宾的观点既有共识也存交锋,既揭示当前技术瓶颈,也给出了各自眼中的破局之道。
一、技术范式迭代:Chat时代落幕,”做事型AI”成新战场
作为智谱AI创始人、清华大学教授,唐杰在峰会上抛出重磅判断:”DeepSeek横空出世后,Chat已经基本结束了,下一步是走向做事。”这一观点迅速引发共鸣,也成为整场峰会的核心基调。
唐杰将大模型发展历程比作人类成长:2020年前后解决MMU、QA等基础问题,2021-2022年掌握数学计算与基础推理,2023-2024年进入复杂推理阶段,能处理研究生层级问题并辅助编程。而如今,HLE(人类终极测试)这类连搜索引擎都无法解答的难题,正成为模型能力新的试金石。”但单纯优化Chat交互已无太多空间,未来比拼的是让AI真正完成具体任务的能力。”
为实现这一目标,智谱已做出战略取舍。唐杰透露,团队曾在两条路径间抉择:一是强化Thinking能力,结合Coding与Agent;二是让模型深度参与科研,如生成复杂研究报告。最终选择前者后,2025年7月推出的GLM-4.5模型,在12项Benchmark评测中拿下智能体、推理与代码任务领先成绩。但真实场景考验仍在——有用户要求生成完整可玩的《植物大战僵尸》游戏,模型因复杂环境适配不足频繁出Bug,这也让团队更坚定通过RLVR(可验证强化学习)优化的决心。”我们搭建大量真实编程环境,让模型在闭环中自主提升稳定性,目前在SWE-bench等真实世界评测中表现持续向好。”
杨植麟则从技术底层给出不同视角。这位Kimi创始人认为,做模型本质是”创造一种世界观”,而当前核心突破点在于提升”Token Efficiency”(Token效率)与”Long Context”(长上下文)能力。”Transformer架构之所以成为主流,关键在于长序列处理时的优势。比如100K上下文场景,Transformer的Position Loss远低于LSTM,这对Agent处理长程任务至关重要。”
为实现这一目标,Kimi团队推出两大技术创新:一是MUON二阶优化器,使Token效率提升2倍,相当于用50%数据就能达到传统Adam优化器的效果;二是kimi Linear架构,解决传统线性注意力在长任务中效果衰减的问题,在100万Context场景下速度比全注意力快6-10倍,且短任务表现不逊色。”我们在K2模型上实现15万亿Token训练的平稳Loss曲线,HLE测试准确率超OpenAI,还能完成200步工具调用的复杂任务。”杨植麟说。
二、市场分化加剧:ToC需”语境”,ToB重”智能”
刚履新腾讯”CEO/总裁办公室”首席AI科学家的姚顺雨,首次公开分享对产业分化的观察。这位27岁的前OpenAI核心研究者指出,中美AI市场均呈现ToC与ToB的显著分野,且底层逻辑截然不同。
“对ToC而言,大部分人不需要那么强的智能。”姚顺雨举例,如今ChatGPT在抽象代数推导上的能力比去年强很多,但普通用户更多将其当作”搜索引擎加强版”,感知不到太大差异。他认为,ToC产品的核心瓶颈已非模型智能,而是”Context(语境)”获取——比如回答”今天吃什么”,需要结合用户实时状态、位置、口味偏好甚至社交关系,”这些额外输入比更强的推理能力更重要”。因此ToC领域更适合垂直整合,模型与产品需强耦合迭代,像ChatGPT和腾讯元宝均是如此。
ToB市场则呈现完全相反的逻辑。”智能越高,生产力越高,溢价空间也越大。”姚顺雨观察到,美国企业愿为200美元/月的顶级模型付费,却对50美元/月的次级模型兴趣寥寥。”在编程等严肃场景,弱模型做错50%任务,排查错误的隐性成本远超模型差价。”他透露,腾讯正利用10万员工的内部场景验证模型,”真实世界的数据比标注商提供的更有价值,能让模型更快适配企业需求。”
阿里Qwen技术负责人林俊旸则从全球化视角补充差异。”美国API调用中Coding占绝对主导,但中国Coding消耗量远没那么大。”他认为这种分化是自然结果,关键在于服务真实需求。阿里千问2025年的进展印证了这一点:Qwen3系列支持119种语言及方言,覆盖巴基斯坦乌尔都语等小众语种;长文本处理突破100万Token,还解决了VL模型”变笨”难题,语言能力与2350亿参数纯语言模型持平。”我们做开源小模型的初心很简单——1.8B模型能帮硕士生毕业,3-4B模型适配手机厂商需求。”林俊旸说,目前阿里开源模型衍生数量全球第一,还在探索VLA(视觉语言动作)与机器人结合的可能。
三、中国AI的挑战与机会:20%反超概率下的破局点
当被问及”三五年后全球最领先AI公司是中国团队的概率”时,四位嘉宾观点虽有差异,但均直指核心挑战。
林俊旸给出20%的谨慎预判:”美国算力规模比我们大1-2个数量级,且更多投入前沿研究,我们的算力多被交付需求占据。”但他也看到希望——中国团队在算法与基础设施协同优化上有”穷则生变”的创新动力,00后团队的冒险精神也在提升。”如果能突破光刻机等算力瓶颈,再培育更成熟的ToB市场,概率会大幅提升。”
姚顺雨相对乐观,认为中国在技术复现与工程优化上优势显著。”只要范式被验证,我们能快速做到局部更好,就像制造业和电动车领域那样。”但他也指出短板:”中国愿意探索未知范式的人还不够多,大家更喜欢做确定的事。比如持续学习、长期记忆这些方向,因前景不明,很少有人敢投入。”
唐杰则从代际视角给出建议:”90后、00后创业者更敢冒险,这是中国的机会。”他认为,当前学术界与工业界的差距已从万倍缩小到10倍,高校开始有充足算力开展大模型研究,”只要环境更支持创新,让聪明人能专注突破,中国完全有机会引领新范式。”
杨强院士(加拿大皇家学院院士、香港科技大学荣休教授)则提醒关注基础研究。”工业界跑太快,学术界需跟上解决根本问题。”他以哥德尔不完备定理为例,指出大模型幻觉无法完全消除,需研究”资源与错误率的平衡”,还建议借鉴人类睡眠清理大脑噪音的机制,探索新的持续学习模式。
四、未来焦点:自主学习与Agent落地
谈及2026年关键趋势,四位嘉宾均将自主学习与Agent视为核心方向,但路径各有侧重。
姚顺雨认为,自主学习的信号2025年已出现,比如Cursor每小时用最新用户数据迭代,”但效果未达预期,因缺乏预训练能力。”他强调,自主学习需明确具象目标:”是能赚钱的交易系统,还是攻克科学难题?只有定义清晰,才能判定新范式到来。”
林俊旸更关注Agent的主动性与安全性。”当前AI需人类启动,未来能否自主思考行动?”他担忧安全风险:”不怕AI说错话,就怕它主动做危险事。”阿里正探索多模态Agent,让模型能操控电脑、理解图像视频,甚至生成编辑图片,”比如旅游时把照片P成《美国往事》风格,或给数学题自动画辅助线。”
唐杰则透露智谱的新布局:2026年将重点突破多模态感统、记忆与持续学习、反思与自我认知三大方向,”我们开源了AutoGLM-9B模型,Agent能力显著增强,但通用能力有损耗,如何平衡是关键。”他还预判,2026年可能成为AI for Science突破年,”模型参与科研的范围会大幅扩大。”
峰会最后,张钹院士(中国科学院院士)的总结引人深思:”AI不应只做工具,未来需解决五个关键能力——时空一致多模态理解、可控在线学习、可验证推理、可校准反思、跨任务强泛化。而企业家要承担更多使命,把知识、伦理转化为可复用工具,让AI像水电一样普惠。”
这场持续一天的峰会,不仅展现中国大模型在技术上的快速追赶,也揭示了产业面临的真实挑战。从Chat到”做事”,从Scaling到效率优化,从技术突破到商业落地,中国AI正在分化中寻找自己的路径,而”基模四杰”的思考与实践,无疑将深刻影响这场全球竞赛的走向。