【量子位 2026年1月31日讯】图灵奖得主、“AI教父”Yann LeCun离开Meta后的创业版图逐渐清晰。继宣布创立专注“世界模型”的初创公司AMI后,他近日再添新身份——正式加入硅谷初创企业Logical Intelligence,担任技术研究委员会创始主席,押注与当前主流大模型(LLM)截然不同的“能量-推理模型”路线。该公司推出的首款模型Kona,在数独测试中以0.72秒的解题速度、100%准确率,碾压GPT 5.2(超时且出错)、Claude Opus 4.5(10分钟未完成)等顶尖大模型,印证了LeCun“不被LLM洗脑”的技术主张,也为AI推理开辟了全新赛道。
从Meta时期坚持“世界模型”到离职后双线布局,LeCun的选择不仅折射出AI领域“路径之争”的加剧,更预示着AGI(通用人工智能)探索正从“单一技术依赖”走向“多元路线协同”。
一、加盟Logical Intelligence:押注“能量推理”,对抗大模型路径依赖
LeCun此次加盟的Logical Intelligence,是2026年1月刚亮相的硅谷初创公司,其核心技术方向——“能量-推理模型(EBM)”,恰与LeCun深耕20年的学术理念高度契合,成为双方合作的关键纽带。
1. 能量模型:不靠“预测token”,靠“找最低能量解”
不同于大模型通过“预测下一个token”生成内容的逻辑,EBM(Energy-Based Reasoning Model)的核心是“基于约束条件找最优解”:
-
原理类比:可将其理解为“在迷宫中找出口的智能体”——不依赖预设路径(如LLM的文本序列),而是通过感知“能量高低”判断方向,符合逻辑、满足约束的解对应“最低能量状态”,系统会持续优化直至找到这一状态;
-
核心优势:在强约束、零容错的任务中表现突出。以数独为例,EBM会先明确“每行每列不重复”的约束条件,再通过评分机制快速定位合规数字,而非像大模型那样逐行生成可能出错的结果。Logical Intelligence CEO Eve Bodnia解释:“EBM从一开始就服务于‘满足约束’,这让它在推理任务中避免了LLM的‘幻觉’与‘效率低下’。”
2. Kona模型实测:0.72秒解数独,碾压顶尖大模型
为验证技术实力,Logical Intelligence用数独测试(强约束逻辑题)对比Kona与主流大模型,结果差距显著:
-
速度与准确率:Kona在单张Nvidia H100 GPU上,0.72秒即可正确完成数独填写;而GPT 5.2运行超100秒后仍出现数字重复错误,Claude Opus 4.5、Claude Sonnet 4.5更是10分钟后超时,未得出完整结果;
-
测试前提:为公平对比“推理能力”,所有大模型均被禁止使用“暴力编程解题”,仅依赖自身推理逻辑——这一设定更凸显EBM在“逻辑闭环”任务中的天然优势。
LeCun对这一结果并不意外,他在公开场合多次批评:“当前行业被LLM洗脑,过度依赖文本序列生成,但真实世界的问题(如能源分配、精密制造)往往与语言无关,更需要EBM这样的强约束推理能力。”
二、为何选择EBM?20年学术坚守,对抗大模型“路径依赖”
LeCun加盟Logical Intelligence,并非临时起意,而是其20年学术理念的延续——早在大模型爆发前,他就深耕能量模型,如今选择这一路线,既是对自身研究的坚持,也是对AI行业“单一技术路线”的反思。
1. 从理论到落地:20年等待,算力与算法终成熟
LeCun对能量模型的关注可追溯至2000年代:
-
早期探索:彼时他就提出“能量模型可构建更鲁棒的智能系统”,但受限于算力(无法处理复杂约束条件)与训练方法(缺乏大规模数据优化),仅能在小规模实验(如图像识别)中验证;
-
如今突破:随着GPU算力提升与多模态训练技术成熟,EBM终于具备工业化落地条件。Logical Intelligence的Kona模型参数量仅200M(远小于大模型),却能处理高维度约束问题,正是得益于“稀疏数据训练”技术——无需海量文本,仅通过部分数据即可提取完整逻辑规则。
2. 三大技术论点:直指大模型推理短板
Logical Intelligence发布的核心技术主张,与LeCun的观点高度一致,共同构成对抗大模型路径的“理论基石”:
-
论点一:大模型推理存在根本性局限:LLM依赖离散文本token,无法高效处理非语言类约束问题(如物理运动规划、数学证明),且推理过程易受“幻觉”干扰;
-
论点二:EBM克服大模型固有难题:通过“能量评分”机制,EBM可直接优化解的合规性,无需依赖文本序列,在零语言、强约束场景中更可靠;
-
论点三:AGI需“LLM+EBM+世界模型”协同:三者各司其职——LLM负责自然语言交互,EBM承担推理任务,世界模型(如LeCun自创公司AMI的方向)支持物理世界动作规划,共同构成AGI的完整技术体系。
这一主张也得到Eve Bodnia的呼应:“AI不是只有LLM一种形态,大模型泡沫终将过去,而EBM这样的推理技术,才是解决真实世界难题的关键。”
三、双线布局AGI:自创公司攻“世界模型”,加盟初创补“推理短板”
离开Meta后,LeCun并非“单押”EBM,而是通过“自创公司+加盟初创”的双线布局,构建覆盖“物理理解-逻辑推理-语言交互”的AGI技术生态。
1. 自创公司AMI:聚焦“世界模型”,理解物理世界
2025年底LeCun宣布创立的AMI(Advanced Machine Intelligence),核心方向是“世界模型”——让AI像人类一样理解物理世界规律:
-
技术目标:通过视频、空间数据训练模型,使其具备“持久记忆、复杂动作规划”能力,例如让机器人理解“推桌子会导致物体移动”的物理逻辑,而非仅依赖预设程序;
-
Meta的角色:尽管与Meta在战略上分歧(Meta押注LLM商业化),LeCun仍争取到Meta的合作支持——Meta成为AMI的早期合作伙伴,提供数据与算力资源,双方“分而不裂”,共同探索长期AI技术。
2. 加盟Logical Intelligence:补全“推理能力”,完善AGI拼图
如果说AMI的“世界模型”解决AI“理解物理世界”的问题,那么Logical Intelligence的EBM则补全“逻辑推理”的短板:
-
技术互补:世界模型让AI“知道物理规则”(如“杯子掉地上会碎”),EBM则让AI“基于规则解决问题”(如“如何安全搬运杯子”),二者结合可支撑更复杂的现实任务;
-
LeCun的角色:作为技术研究委员会创始主席,他将主导EBM的算法优化与场景拓展,计划将Kona应用于“能源网络优化”“精密制造自动化”等领域——这些任务对“推理准确性”要求极高,且与语言无关,恰是EBM的优势战场。
四、行业影响:打破大模型垄断,AGI探索进入“多元协同”时代
LeCun的双线布局,不仅是个人职业选择,更可能重塑AI行业的技术格局——从“大模型一家独大”走向“多技术路线协同”。
1. 为中小初创提供“差异化路径”
Logical Intelligence的案例证明,无需追求“千亿参数大模型”,聚焦EBM等细分技术路线,仍能在特定领域超越巨头。目前已有多家投资机构关注“非LLM类AI初创”,硅谷甚至出现“EBM创业小热潮”,LeCun的加盟更让这一路线获得行业认可。
2. 推动AGI“分工协作”理念普及
LeCun与Logical Intelligence倡导的“LLM+EBM+世界模型”协同体系,正改变行业对AGI的单一认知:
-
不再追求“全能大模型”:而是让不同技术承担不同功能——例如用LLM处理用户语言提问,EBM计算最优解决方案,世界模型指导机器人执行动作;
-
降低AGI落地门槛:各技术模块可独立迭代、小规模落地,无需等待“通用大模型突破”,例如Kona已开始为精密制造企业提供推理算法支持,AMI的世界模型也在机器人导航场景测试。
五、未来展望:EBM将开源,双线技术或“交叉赋能”
Logical Intelligence与LeCun均透露了未来规划,进一步释放技术落地信号:
-
EBM开源计划:目前Kona仍为闭源模型,但CEO Eve Bodnia表示“将在充分验证安全性后开源部分技术”,希望吸引更多开发者参与优化,构建EBM生态;
-
双线技术协同:AMI的世界模型与Logical Intelligence的EBM未来可能“交叉赋能”——例如用世界模型生成的“物理场景数据”,训练EBM处理更复杂的现实约束问题,形成“理解-推理-执行”的完整闭环。
LeCun在近期采访中强调:“AGI不是单一技术的胜利,而是不同能力的协同。现在行业需要的不是更多LLM,而是像EBM这样能解决真实问题的‘差异化工具’。”
结语:65岁AI教父的“叛逆”:不随大流,坚守长期主义
从Meta离职,到双线布局“世界模型+能量推理”,65岁的LeCun始终保持着对“真正AI”的坚守——不追逐大模型的短期商业热度,而是选择需要长期投入的“硬骨头”领域。他的选择不仅为AI行业提供了“多元路线”的样本,更提醒从业者:AGI的终极目标,是让AI理解并解决真实世界的问题,而非在文本生成中追求“拟人性”。
随着Kona模型的落地与AMI的推进,LeCun的“反主流”路线能否成功?或许正如他所说:“真正的技术突破,往往诞生于不被理解的坚持。”而这一场“能量推理对抗大模型”的竞赛,才刚刚开始。
要不要我帮你整理一份能量-推理模型(EBM)与大模型(LLM)核心差异对照表,详细拆解二者在原理、优势场景、落地案例上的区别,以及LeCun技术路线的关键里程碑?