Ilya重磅发声:大模型“规模竞赛”见顶,AI重回科研时代

2025 年 11 月 26 日,AI 领域顶尖研究者、SSI(超级智能研究所)核心成员 Ilya Sutskever 在近 2 万字的深度访谈中抛出重磅观点:当前大模型依赖 “预训练 + 规模扩张” 的 “大力出奇迹” 路线已明显遇阻,AI 行业正从 “规模时代” 重新回归 “科研时代”。这一论断不仅引发业内对大模型发展路径的重新审视,更揭开了当前 AI 泛化能力不足、经济价值滞后等核心痛点的深层原因。

核心论断:“规模竞赛” 难破瓶颈,科研范式亟待重构

Ilya 在访谈中直言,2020-2025 年的 “规模化时代” 虽推动大模型能力快速提升,但当模型规模已达极致时,单纯扩大参数量、增加算力投入,难以带来根本性突破。“你真的会相信再扩大 100 倍就能彻底改变一切吗?会有变化,但不会是划时代的转折。” 他强调,过去五年行业沉迷 “继续扩大” 的单一思路,本质是因预训练模式具备 “低风险、可预期” 的收益,但如今数据有限的硬上限已逐渐显现,继续依赖规模扩张,无异于 “用更多算力掩盖研究的缺失”。

这一观点与 Yann LeCun 多年来 “LLM 已死” 的论调形成呼应,LeCun 甚至在社交平台转发梗图调侃:“为何我早说的话没人在意?” 但 Ilya 进一步指出,行业并非要否定规模化本身,而是需重构研究范式 —— 从 “追求更大” 转向 “追求更高效的学习机制”,尤其要解决大模型泛化能力远逊于人类的核心问题。

痛点剖析:评测优秀与现实拉胯,问题出在哪?

访谈中,Ilya 深入分析了当前大模型的核心矛盾:为何模型在评测中表现惊艳(如编程竞赛超人类),但在实际场景中却频繁出错(如反复引入相同 bug)?他提出两点关键解释:

一是 “RL 训练的目标偏差”。当前企业为提升评测成绩,会从 eval(评估指标)中汲取灵感设计 RL 环境,导致模型成为 “极致的评测应试者”,类似 “学生刷遍竞赛题却缺乏真实编程素养”。例如,模型能在编程竞赛中快速实现算法,却无法在真实代码库中做出合理判断,本质是训练数据与真实需求脱节。

二是 “预训练的泛化假象”。预训练虽依赖海量数据,但这些数据只是 “人类把世界投射到文本上的一层”,模型并未真正理解世界。Ilya 以 “情感缺失者无法决策” 为例类比:人类的价值判断依赖进化形成的情感调节,而大模型缺乏类似的 “内在反馈机制”,即便掌握海量知识,也难以在复杂场景中做出稳健决策。

未来方向:从 “规模扩张” 到 “效率革命”,5-20 年迈向类人学习

对于 AI 的下一阶段发展,Ilya 提出三大核心方向:

1. 重视价值函数的效率提升

Ilya 认为,当前强化学习(RL)因迭代周期长、学习增益小,成为 “算力黑洞”,而价值函数能缩短学习反馈周期(如提前判断错误路径),大幅提升算力利用效率。“价值函数能做到的,不用它也能做到,但速度会慢很多。” 他预测,价值函数将成为未来 RL 优化的关键突破口。

2. 探索类人学习的 “通用机制”

人类仅需少量数据就能快速掌握新技能(如青少年 10 小时学会开车),核心在于 “内在价值体系 + 高效学习机制”。Ilya 推测,人类的学习能力并非依赖复杂的进化先验(如语言、编程等近期能力),而是某种更基础的 “通用机器学习能力”。未来 AI 需模仿这种机制,摆脱对海量标注数据的依赖,实现 “样本高效的持续学习”。

3. 接受 “科研时代” 的试错本质

Ilya 将 AI 发展划分为三个阶段:2012-2020 年 “研究时代”(AlexNet、Transformer 诞生)、2020-2025 年 “规模化时代”(GPT-3 为代表)、2025 年后 “新研究时代”。他强调,新研究时代无需无限制算力 ——AlexNet 仅用 2 块 GPU,Transformer 初期实验仅需 8-64 块 GPU,关键是 “找到正确的方向”。SSI 目前的研究也印证这一点:尽管总经费 30 亿美元远低于 OpenAI,但因资金集中用于研究,仍具备充足的实验算力。

超级智能展望:5-20 年实现类人学习,需平衡能力与安全

谈及超级智能的发展时间表,Ilya 给出 “5-20 年” 的预测,但强调这并非 “掌握所有技能的成品”,而是 “能学会任何技能的可成长心智”,类似 “求知欲旺盛的 15 岁少年”。他同时警示,超级智能的风险核心在于 “力量不可控”,需提前规划:

一是 “逐步部署与公众适应”。即便追求超级智能,也需分阶段推进,让社会逐步感受 AI 的力量,避免认知断层。

二是 “构建关怀感知生命的 AI”。Ilya 提出,未来 AI 应具备对 “所有感知生命” 的关怀,这比仅关注人类更易实现 —— 因 AI 本身可能具备感知能力,类似人类对动物的同理心,可通过模拟自身回路理解他者。

三是 “限制超级智能的能力边界”。对于 “大陆级规模” 的超强计算集群,需通过协议或技术手段施加限制,避免单一 AI 垄断能力。

行业影响:从 “一家独大” 到 “多元竞争”

Ilya 预判,未来 AI 行业不会出现 “一家率先突破超级智能并垄断” 的局面。一方面,市场偏好多样化、专业化,不同公司会在细分领域深耕(如诉讼 AI、科研 AI);另一方面,信息会快速扩散,一家公司的突破会迅速被行业跟进,形成 “竞争 – 迭代” 的良性循环。

他同时提到,SSI 的独特之处在于 “纯粹的研究导向”—— 不追求短期商业化,专注验证 “理解与概括” 的核心思路。尽管前联合创始人因 Meta 收购离开,但 SSI 仍以 320 亿美元估值推进融资,聚焦 “安全的超级智能研发”。

从 “规模竞赛” 到 “科研回归”,Ilya 的发声不仅为 AI 行业敲响警钟,更指明了下一阶段的发展方向。正如他所言:“AI 的影响会真正渗透进经济体系,冲击会非常明显。但只有先解决学习机制的效率问题,才能让这种冲击走向良性。”

© 版权声明

相关文章