【量子位 2026年1月9日讯】CES 2026拉斯维加斯现场,英伟达CEO黄仁勋成为最忙碌的科技领袖——不仅提前发布新一代AI超算平台Vera Rubin(简称Rubin),宣布其全面投产;还回应内存涨价、游戏显卡供应等行业焦点,甚至抽空领取IEEE最高荣誉奖章。从“物理AI革命”到“旧显卡复产计划”,黄仁勋的每一句话都牵动着AI与消费电子行业的神经,也勾勒出英伟达从“芯片厂商”到“AI基础设施构建者”的战略蓝图。
此次亮相,英伟达虽未发布新消费级显卡,却用Rubin平台、开源自动驾驶模型、内存供应链布局等重磅信息,证明其在AI时代的核心话语权。正如黄仁勋所言:“AI正在成为基础设施,而我们要做的,是让这个基础设施足够强大,支撑起物理世界与数字世界的深度融合。”
一、Rubin平台提前投产:6芯片协同设计,AI训练效率提升3.5倍
原定3月GTC大会发布的Rubin平台,意外在CES 2026提前亮相并宣布“全面投产”,成为本次展会最大惊喜。这款被黄仁勋称为“AI下一个前沿”的超算平台,并非单一芯片,而是整合6款核心组件的“全栈解决方案”:
1. 硬件突破:6芯片协同,性能跨代跃升
Rubin平台采用“极端协同设计”理念,将计算、网络、存储、安全等功能集成于一体,6款芯片各司其职:
-
Rubin GPU:AI计算核心,相比前代Blackwell架构,训练性能提升3.5倍(达35 PFLOPS),推理性能提升5倍(达50 PFLOPS),HBM4内存带宽飙至22TB/s(2.8倍提升),单GPU互连带宽翻倍至3.6TB/s,能轻松支撑万亿参数大模型的训练与推理;
-
Vera CPU:88核全新中央处理器,专为AI负载优化,可高效调度GPU与内存资源,避免“算力浪费”;
-
BlueField-4 DPU:负责数据存储与安全,搭配新发布的“推理上下文内存存储平台”,能高效管理AI对话产生的KV Cache(上下文缓存),减少重复计算,让多轮对话推理速度提升40%;
-
Spectrum-6交换机:支撑高速网络连接,配合ConnectX-9 SuperNIC超级网卡,构建低延迟、高吞吐量的AI集群网络,黄仁勋透露:“Spectrum-X已席卷AI领域,用它的客户能多获得25%吞吐量,相当于网络成本‘免费’。”
这种全栈设计,让Rubin平台在运行MoE(混合专家)模型时,所需GPU数量减少4倍,推理token成本降低10倍,直接解决AI企业“算力贵、效率低”的痛点。目前,AWS、微软、Google、OpenAI、Meta等头部企业已确认成为首批用户,CoreWeave等AI云服务商更是计划将其规模扩展至“十万枚GPU”级别。
2. 生态先行:提前释放工程样品,加速行业落地
黄仁勋解释,选择在CES提前发布Rubin,核心目的是“让生态伙伴尽早适配”。目前,Rubin平台的6款芯片已全部到位,相关系统已在运行真实AI负载(如大模型训练、自动驾驶仿真)。英伟达将在上半年提供工程样品,下半年进入量产爬坡阶段,确保与客户的部署节奏同步。
“AI对计算的需求每半年就翻倍,我们不能等。”黄仁勋强调,Rubin的提前投产,将为AI推理时代的到来“铺平道路”——随着大模型从“训练”转向“落地”,高效的推理系统将成为行业刚需,而Rubin正是为此而生。
二、回应行业痛点:内存卡脖子?英伟达握有HBM4独家产能;游戏玩家慌了?旧显卡或复产
CES现场,黄仁勋直面当前行业两大焦点:内存价格暴涨与游戏显卡供应紧张,给出了明确且务实的回应:
1. 内存涨价:HBM4产能优先保障,英伟达是“全球最大买家”
近期DDR5内存、SSD价格飙升,HBM(高带宽内存)更是“一货难求”,有记者提问“内存是否会制约GPU发展”,黄仁勋坦言:“现在内存确实卡了GPU的脖子,现有HBM容量远不够用,瓶颈只会更严重。”
但他同时透露,英伟达已与全球主要内存厂商(如三星、美光、SK海力士)建立“深度协同规划机制”,直接参与产能布局:
-
HBM4独家用户:英伟达是目前全球唯一的HBM4主要用户,各家供应商的HBM4产线“全部为英伟达扩产”,且进展顺利,能满足Rubin平台的大规模需求;
-
全内存品类覆盖:作为“全球最大记忆体买家之一”,英伟达同时采购HBM、GDDR、LPDDR等多种内存,通过庞大采购量掌握议价权,“至少在AI产品线,我们不会受产能焦虑影响”。
对于消费级内存涨价,黄仁勋表示“这是市场供需决定的”,但暗示英伟达消费级显卡(如RTX系列)的内存供应“仍有保障”,不会出现“无卡可用”的情况。
2. 游戏显卡:考虑复产旧款,甚至移植新技术
此次CES,英伟达未发布新消费级显卡,引发游戏玩家担忧。面对“是否会重启旧产线”的提问,黄仁勋给出积极回应:“有这种可能,我们甚至在考虑把最新AI技术(如DLSS 4.5)移植到上一代GPU(如RTX 3060)上。”
这一表态背后,是当前显卡市场的现实困境:DDR5内存涨价推高新卡成本(RTX 5090零售价逼近4000美元),而旧款显卡因制程成熟、显存需求低,成为缓解供应压力的“最优解”。不过黄仁勋也坦言,复产旧卡需要投入大量研发资源——比如DLSS 4.5原本针对新架构优化,下放至旧卡需重新适配,避免“性能大幅下降”。
目前,英伟达尚未公布具体复产型号与时间表,但行业推测,RTX 30系列(如3060、3070)与RTX 40系列低端型号(4050、4060)最有可能被重启,“这些显卡仍有庞大用户基数,移植新技术后能满足多数玩家需求”。
三、押注物理AI:自动驾驶、机器人成重点,开源模型生态扩张
除了硬件,黄仁勋在CES上花最多时间谈论的,是“物理AI”——即让AI理解物理世界规律,具备在真实场景中行动的能力。从自动驾驶到机器人,英伟达正构建完整的物理AI生态:
1. 自动驾驶:开源VLA模型Alpamayo,直面特斯拉FSD
英伟达发布全球首款开源“视觉-语言-行动(VLA)”自动驾驶推理模型Alpamayo 1,直接对标特斯拉FSD。黄仁勋先盛赞特斯拉:“FSD的路测里程、训练方式、仿真技术都是世界一流,我自己的车就用它,表现惊艳。”
但他强调,Alpamayo的理念完全不同:
-
定位平台提供商:英伟达不生产汽车,而是为所有车企提供“训练-仿真-部署”全栈工具链——包括Alpamayo模型、AlpaSim高保真仿真框架、1700小时开源驾驶数据集,客户可按需使用部分或全部模块;
-
全面开源:不仅开放模型代码,还提供训练数据与部署教程,甚至为客户提供技术支持,“所有具备移动能力的载具,都应该实现自动驾驶,而我们要做的是赋能”。
目前,Waymo、小鹏、Nuro(新进入Robotaxi领域)、Lucid等车企已确认采用Alpamayo相关技术,黄仁勋预测:“未来十年,自动驾驶将成为规模最大、增长最快的科技产业之一,全球数亿辆汽车将具备自动驾驶能力。”
2. 机器人:今年内将出现“人类水平”机器人
在机器人领域,黄仁勋抛出重磅预测:“今年内,我们就能看到在移动能力、关节活动度、精细动作上达到人类水平的机器人。”他认为,机器人是“AI移民”,能承担人类不愿从事的体力劳动,解决人口结构带来的经济挑战。
为实现这一目标,英伟达发布两款开源机器人模型:
-
Cosmos Reason 2:视觉语言模型(VLM),让机器人“看见、理解并行动”,能根据3D场景生成符合物理规律的动作;
-
GR00T N1.6:类人机器人全身控制模型,解锁关节精细动作,比如用触觉感知抓取易碎物品,避免“机械硬夹”。
黄仁勋强调,机器人的关键突破在于“触觉能力”——目前多数机器人只有视觉,而人类行动依赖视觉+触觉,“我们正在推进触觉传感器技术,行业内其他企业也在努力,这是机器人达到人类水平的最后一块拼图”。
四、荣誉与愿景:IEEE奖章加身,黄仁勋谈“CEO的责任”
在忙碌的行程中,黄仁勋还抽空出席IEEE颁奖仪式,领取2026年IEEE荣誉奖章(全球科技界最高荣誉之一),奖金200万美元。IEEE表彰其“领先行业数十年的前瞻布局,为加速计算与AI奠定算力基石”,将他与互联网之父文顿·瑟夫、台积电创始人张忠谋等传奇人物并列。
领奖时,黄仁勋罕见流露感性一面,他没有谈论商业成就,而是向“工程师”身份致敬:“工程学是最崇高的职业,它用科学与数学解决看似不可能的问题,构建了今天的社会。”他还分享了人生际遇——大学时因“别无选择”进入俄勒冈州立大学,却在电子工程课上遇到后来的妻子,“这段经历教会我,有时候被动的选择,会带来意想不到的未来”。
当被问及“还能担任CEO多久”,黄仁勋幽默地给出两大秘诀:“第一,不要被解雇;第二,不要感到无聊。”但随即严肃补充:“英伟达现在是AI产业的‘船长’,要引领供应链与合作伙伴,这份责任重大,我会一直做到‘值得做’的那一天。”
结语:英伟达的“AI基础设施”野心
从Rubin平台投产到物理AI布局,从内存供应链掌控到旧显卡复产计划,黄仁勋在CES 2026的每一个动作,都指向同一个目标——让英伟达成为AI时代的“基础设施提供商”。不再局限于卖芯片,而是通过全栈硬件、开源生态、行业解决方案,构建起支撑AI发展的“水电煤”。
对于行业而言,Rubin平台的提前投产将加速AI推理时代的到来,让大模型落地成本大幅降低;对于游戏玩家,旧显卡复产计划则是“及时雨”,缓解高价新卡带来的焦虑。而黄仁勋对物理AI的押注,更预示着未来十年,机器人、自动驾驶等领域将迎来“爆发式增长”。
正如黄仁勋在演讲结尾所说:“我们正处于一场工业革命的开端,AI将重塑每一个行业。而英伟达的使命,就是让这场革命来得更快、更稳健。”随着Rubin平台的量产与生态扩张,这个使命正在一步步照进现实。