RockAI刘凡平:AI该告别Token付费时代,端侧智能与群体智能才是AGI破局关键

AI 资讯43分钟前发布 dennis
0

【量子位 2025年12月14日讯】在大模型行业沉迷“参数竞赛”“算力比拼”的当下,中国AI初创企业RockAI的创始人刘凡平,在量子位MEET2026智能未来大会上抛出颠覆性观点:“为Token付费是件愚蠢的事,用户该为智能买单”。这位曾深度参与Transformer优化、如今全力推动架构革新的创业者,不仅直指当前AI行业的核心误区,更带来了RockAI的解决方案——以Yan架构突破Transformer与反向传播算法“两座大山”,让端侧设备拥有原生记忆与自主学习能力,最终通过群体智能迈向通用人工智能(AGI)。这场演讲吸引了线下近1500名观众与350万+线上直播用户关注,为陷入“内卷”的AI行业提供了全新思考方向。

直击行业痛点:Token付费是“错误模式”,Transformer陷入“死亡螺旋”

“现在大家谈Agent、谈大模型,却还在为Token充值,这就像为‘啰嗦的表达’付费,完全背离了AI的核心价值。”刘凡平在演讲中开门见山,直指当前AI商业化的核心误区。他用生活场景类比:“有人三句话能说清问题,有人却要讲半小时,难道要为冗长的表述多付钱?AI的本质是提供智能,付费逻辑理应围绕‘解决问题的能力’,而非‘生成内容的长度’。”

在他看来,Token付费模式的盛行,本质是当前主流Transformer架构的“先天缺陷”所致。作为国内最早研究Transformer的从业者之一,刘凡平承认该架构早期的突破性,但也直言其已陷入“死亡螺旋”:为提升模型能力,行业不断堆砌算力与数据,导致成本飙升——某头部大模型单次训练成本已突破1亿美元,而效果提升却逐渐放缓;更关键的是,Transformer模型部署后参数固定,如同“被冻结的工具”,无法自主学习新知识,只能依赖云端重新训练、下发更新,这也使得“持续服务”不得不依赖Token计量。

刘凡平进一步拆解Transformer的核心局限:

  • 静态函数属性,无法实现“活智能”:Transformer本质是静态复合函数,如同“复杂的查找表”,只能基于训练数据生成结果,无法像人类大脑一样动态建立新连接、形成记忆;

  • 长上下文≠记忆,只是“大号缓冲区”:2024年以来行业追捧的“百万级长上下文”,本质是临时存储信息的缓冲区,无法像人脑海马体那样对信息加工、压缩、长期存储,更无法形成“价值观”“经验”等深层认知;

  • 全参数激活,算力浪费严重:即使处理“1+1=2”这类简单问题,Transformer也需激活全部参数,如同“用整座工厂生产一颗螺丝钉”,端侧设备根本无法承载这种算力消耗。

破局路径:Yan架构重构端侧智能,实现“原生记忆+自主学习”

为打破Transformer的桎梏,RockAI耗时两年研发出非Transformer架构的Yan大模型,并在2024年推出1.0版本,如今已迭代至支持多模态的2.0预览版。这套架构的核心,是让端侧设备真正具备“活”的智能——原生记忆与自主学习能力。

1. 类脑稀疏激活:算力消耗直降90%,手机CPU也能跑

Yan架构最显著的突破,是模仿人类大脑的“选择性激活”机制。刘凡平解释:“人脑有860亿神经元,但开车时主要激活视觉皮层,睡觉时仅少量神经元工作,这种高效模式正是AI需要的。”基于此,Yan架构采用“极端稀疏化激活”设计,比当前主流的MoE(混合专家模型)激活效率更高:

  • 任务驱动分区激活:处理语音交互时,仅激活模型中的语音理解模块;识别图像时,则聚焦视觉相关参数,避免全参数运算。实测显示,在手机端运行30亿参数的Yan模型,算力消耗仅为同参数Transformer模型的1/10,甚至能在树莓派、无人机等低算力设备上流畅运行;

  • 动态资源分配:根据任务复杂度自动调整算力投入,比如回答简单问题时启用“轻量模式”,分析复杂数据时切换“全功率模式”,兼顾效率与性能。

2. 原生记忆模块:像人脑一样“积累经验”

不同于Transformer依赖长上下文的“临时记忆”,Yan架构加入了类似人脑海马体的“记忆模块”,实现参数化的长期记忆:

  • 实时加工存储:与用户交互时,记忆模块会自动压缩、整理关键信息(如用户偏好、历史对话要点),并以参数化形式存储,无需依赖外部数据库;

  • 动态更新与遗忘:通过“自适应衰减因子”和“学习率”,让重要记忆长期保留,无关信息自动遗忘——例如记住用户“对海鲜过敏”的长期偏好,却忽略某次临时提及的“今天想吃面”这类短期需求;

  • 跨会话学习:即使间隔数月,模型也能回忆起过往对话内容,形成“个性化认知”。现场演示中,部署Yan模型的机器狗“闪电”,能记住用户教过的指令,后续交互时无需重复说明,甚至能根据过往反馈调整行为。

3. 训推同步:模型部署后仍能“持续进化”

“当前大模型在部署那一刻就‘死亡’了,因为参数固定,无法学习新东西。”刘凡平指出,而Yan架构通过“训练与推理同步”技术,让模型在服务过程中持续进化:

  • 实时更新参数:推理生成结果的同时,模型会根据用户反馈(如“这个回答不对”)实时调整参数,相当于“边工作边学习”;

  • 无需云端重训:端侧设备可自主完成知识更新,无需将数据上传至云端重新训练——例如智能家居模型能自主学习用户的作息习惯变化,无需厂商推送更新包;

  • 避免“灾难性遗忘”:通过记忆模块与动态参数调整,新学习的知识不会覆盖旧知识,解决了传统持续学习中的“越学越忘”问题。

终极愿景:群体智能取代“云端造神”,每台设备都是AGI入口

刘凡平强调,Yan架构的终极目标不是打造“更强大的单设备智能”,而是通过无数具备自主学习能力的端侧设备,构建“群体智能”——这也是RockAI眼中迈向AGI的最佳路径。

“现在的云端大模型,本质是‘知识传播者’而非‘知识创造者’,它们从人类社会收集数据,再以生成内容的形式传播,却无法产生新认知。”刘凡平认为,真正的智能应该像人类社会一样:每个个体(设备)拥有独特能力,通过协作产生新知识。

在他描绘的群体智能图景中:

  • 设备间自主协作:家中的智能音箱、扫地机器人、手机可共享知识——扫地机器人发现“客厅地毯易脏”,会同步给音箱,音箱提醒用户“定期清理地毯”;

  • 个性化与通用性平衡:每台设备保留独特的用户偏好(如手机记住用户的阅读习惯),同时通过群体协作掌握通用能力(如学会识别新类型的物品);

  • 知识自主产生:设备在与物理世界交互中发现新规律——例如农业机器人通过观察作物生长,总结出“特定土壤湿度下产量更高”的新知识,并共享给其他同类设备,形成“群体认知升级”。

行业影响:重新定义硬件价值,AI进入“端侧革命”

刘凡平认为,端侧智能的普及将彻底改变硬件行业的价值逻辑:“未来买硬件,不是为了它的功能(如内存大小、摄像头像素),而是为了它能与你共同创造的智能价值。”

就像宠物狗因陪伴产生情感价值,未来的智能硬件也将因“持续学习”和“个性化”成为用户的“伙伴”:

  • 硬件价值动态增长:刚购买时,智能手表只能完成基础健康监测;随着学习用户的生活习惯,逐渐能提供个性化健康建议,甚至预警潜在疾病,价值随使用时间不断提升;

  • 隐私安全升级:数据在端侧存储、处理,无需上传云端,从根源上解决数据泄露风险;

  • 打破“设备孤岛”:不同品牌的设备可通过群体智能协作,避免当前“生态壁垒”问题——例如小米手机能与华为智能家居共享数据,提供统一的智能服务。

目前,RockAI已与多家硬件厂商合作,将Yan架构集成到智能手机、机器人、智能家居设备中,预计2026年将有搭载完整Yan 2.0模型的产品上市。刘凡平坦言,突破Transformer与反向传播算法的“两座大山”仍需时间,但端侧智能与群体智能的方向已明确:“AI不该是少数巨头掌控的云端‘神’,而应是每个人身边‘活’的伙伴,这才是通用人工智能的真正意义。”

© 版权声明

相关文章