【量子位 2026年1月1日讯】AI领域的“师徒之争”引爆全球科技圈!当OpenAI前联合创始人Ilya Sutskever(曾是Geoffrey Hinton学生)公开质疑Scaling Law(缩放定律)“继续堆规模不划算”时,被誉为“AI教父”的Hinton却毅然发声:“Scaling Law并未完全结束,只是需突破数据瓶颈”。这场跨越师徒的观点交锋,不仅颠覆了二人过往对Scaling Law的共识,更折射出当前AI行业在“规模化”路径上的核心分歧——是靠AI自我生成数据延续规模红利,还是重构研究范式寻找新突破?
从Ilya曾将Scaling Law带入OpenAI、Hinton坦言“当年我错了,Ilya是对的”,到如今二人立场反转,这场论战背后,是AI行业从“堆资源”到“求突破”的转型阵痛,也让全球目光聚焦于Scaling Law的未来走向。
一、师徒立场反转:从“共识”到“对垒”的Scaling Law之争
Scaling Law(缩放定律)曾是AI行业的“金科玉律”——核心逻辑为“模型参数、训练数据、算力规模同步扩大,性能将按可预测规律提升”。这一规律推动了GPT-3、ChatGPT等里程碑模型的诞生,而Ilya正是早期最坚定的拥趸,Hinton也曾多次称赞其“在Scaling Law上的直觉惊人”。但如今,二人观点却出现根本性分歧:
1. Hinton:Scaling Law未死,AI自我生成数据能破瓶颈
Hinton在接受《Business Insider》采访时明确表态,Scaling Law依然有效,当前最大挑战是“高质量数据枯竭”——免费互联网数据基本耗尽,高价值数据多被企业封锁。但他坚信,AI可通过“自我生成训练数据”突破这一限制,其灵感源自AlphaGo与AlphaZero的成功:
- “AlphaGo通过自我对弈生成数据精通围棋,AlphaZero甚至无需人类棋谱,仅靠自我博弈一天就成国际象棋顶尖选手。语言模型也能如此,通过推理生成数据,摆脱对人类数据的依赖。”
Hinton强调,Scaling Law的核心逻辑未变,只是需要“新的数据源”,而AI自主生成数据正是关键解法。
2. Ilya:堆规模难成“根本性转折”,需回归研究范式重构
离开OpenAI后,Ilya对Scaling Law的态度逐渐转向审慎。他在NeurIPS大会上宣告“预训练时代即将终结”,最新言论更是直接质疑规模扩张的价值:“当规模已如此庞大,再扩大100倍真能彻底改变一切吗?会有变化,但难成根本性转折。”
在Ilya看来,数据是AI的“化石燃料”,全球高质量数据有限,单纯堆规模已遇瓶颈。他呼吁行业“重新回到研究时代”:
- “过去十年靠‘参数×数据×算力’的公式突破,但现在需要重构研究范式,关注智能体、推理、自我意识等更核心的能力,而非盲目扩大规模。”
他还透露,当前AI系统“缺失重要东西”,虽未明说,但从其提及的“脑部受损者因无情绪无法决策”案例推测,或指向AI对“情感、因果理解”等人类核心能力的缺失——而这些靠堆规模难以实现。
二、两大阵营对垒:Scaling Law的“存续之争”
Hinton与Ilya的分歧,迅速引发AI行业的阵营分化,支持与质疑Scaling Law的两派均有重磅人物站台,观点碰撞激烈:
1. “Scaling Law不死派”:Hinton+哈萨比斯,押注AI自主进化
除Hinton外,谷歌DeepMind CEO哈萨比斯是另一核心支持者。他从AlphaGo、AlphaZero的实践中坚信,“规模化+AI自主进化”是通往AGI的关键:
- “必须将当前系统的规模化推向极致,它至少是AGI的核心组成部分,甚至可能就是AGI本身。但规模化不止是堆参数,还需同步扩展训练范式、环境复杂度、系统架构,构建可交互的‘世界模型’。”
哈萨比斯认为,若AI能进入“可交互环境”,数据将成为“无限变量”——例如通过与物理世界互动生成新数据,而非依赖静态人类数据。这与Hinton“AI自主生成数据”的思路高度契合。
2. “Scaling Law不够用派”:Ilya+LeCun,呼吁突破范式局限
Meta首席AI科学家Yann LeCun与Ilya立场一致,直言“不能假设更多数据和算力就等于更智能的AI”。他长期质疑大语言模型实现AGI的可能性,甚至成立公司研发“世界模型”,试图绕开单纯的规模扩张路径:
- “当前AI仅靠拟合数据分布,再大的规模也会撞上天花板。需要让AI理解物理世界的规律,而非仅学习数据中的统计关联。”
LeCun与Ilya均认为,Scaling Law的传统路径已难以为继,需寻找“非规模驱动”的创新突破。
三、分歧本质:不是“要不要Scaling”,而是“Scaling什么”
尽管表面对立,但深入分析可发现,双方并非“反对Scaling”,而是对“Scaling的核心”理解不同——这场论战的本质是“AI规模化的方向之争”。
OpenAI o1模型核心成员Noam Brown的观点或许最中肯:“社交媒体将辩论简化为‘支持/反对Scaling’,但顶尖研究者的共识其实更多——当前范式仍能带来经济价值,但实现AGI需更多突破,分歧仅在‘突破的形式与速度’。”
具体而言:
-
Hinton与哈萨比斯认为,Scaling的核心是“数据与能力的规模化”,AI自主生成数据可延续这一逻辑;
-
Ilya与LeCun则认为,Scaling的核心应转向“认知能力的规模化”,如推理、因果理解,而非参数与数据的线性增长。
正如LeCun所言:“没人否认超级人工智能(ASI)可能实现,分歧在于‘如何实现’——是靠AI自主生成数据延续规模红利,还是靠范式创新构建新能力。”
四、行业影响:Scaling Law论战改写AI发展路径
这场关于Scaling Law的论战,已超越“学术讨论”,直接影响企业战略与行业生态:
-
巨头布局分化:谷歌、DeepMind或加大对“AI自主生成数据”的投入,延续规模化路径;OpenAI、Meta则可能转向推理优化、世界模型等新方向,减少对单纯规模的依赖。
-
创业公司机会:Ilya倡导的“研究时代”,或为小团队提供机遇——若突破无需“最大算力”,靠创新idea即可突围,行业或重现2012年“AlexNet靠2块GPU突破”的场景。
-
投资逻辑转变:资本或从“盲目投算力、规模”转向“投范式创新”,关注推理优化、合成数据、具身智能等能突破Scaling Law瓶颈的技术方向。
结语:AI的“十字路口”,论战背后是对“真智能”的探索
Hinton与Ilya的师徒对垒,看似是Scaling Law的“存续之争”,实则是AI行业对“真智能”的本质探索——究竟靠“规模红利”延续突破,还是靠“范式创新”逼近人类智能?
没有绝对正确的答案,但这场论战已为AI行业敲响警钟:单纯堆规模的“野蛮生长”时代渐远,未来需要更精准的方向。正如Hinton所言,“AI生成数据是解法之一”;又如Ilya强调,“需回归研究本质”——无论哪条路径,最终都指向同一个目标:让AI真正理解世界、具备核心智能,而非仅停留在“拟合数据”的层面。
2026年,这场论战或将迎来关键验证——若有企业靠“AI自主生成数据”实现模型性能跃升,或靠“范式创新”突破AI认知瓶颈,都将为Scaling Law的未来写下注脚。而AI行业,也将在这场探索中,离“真智能”更近一步。