华尔街热炒TPU引争议:学术界戳破“新热点”假象,何恺明团队早有实践

2025年11月下旬,一则“Meta拟与谷歌签订数十亿美元TPU订单”的消息,在资本市场掀起轩然大波——英伟达股价盘中暴跌7%,市值蒸发超3000亿美元,而谷歌股价一度上涨4%,市值增加约1500亿美元。《华尔街日报》将此解读为“谷歌向英伟达算力霸权发起冲击”的信号,然而这股狂热却遭到学术界“泼冷水”:TPU并非新晋算力神器,Meta、xAI等企业及科研团队早在多年前就已广泛应用,何恺明领衔的团队更是在5年前就用TPU完成多项核心研究,华尔街的“新鲜劲”在业内人士看来更像是“后知后觉”。

TPU“走红”背后:资本市场狂欢与学术界的“见怪不怪”

资本市场对TPU的追捧,源于对“算力格局变动”的敏感预期。随着AI大模型训练对算力需求激增,英伟达凭借GPU及CUDA生态长期垄断市场,此次Meta选择谷歌TPU,被部分投资者视为“打破垄断”的开端。但在从业者眼中,这一选择实属常规操作。OpenAI技术人员Clive Chan在社交平台直言:“谷歌Gemini多年来一直用TPU训练,Anthropic的Claude、生图模型MidJourney等也早有TPU应用,若Meta从未用过TPU,才更令人惊讶。”

更具说服力的是Meta自身的实践履历。Meta AI研究员谢赛宁(Saining Xie)公开透露,早在2020年,Meta(当时仍称Facebook)就已启用TPU开展研究,何恺明(Kaiming He)亲自领导了TensorFlow(TF)与JAX代码库的初期开发,MAE(掩码自编码器)、MoCo v3(动量对比学习)、ConvNeXt v2(卷积神经网络)等影响深远的AI研究项目,均是在TPU上完成全部开发。“当时我们是FAIR(Meta人工智能实验室)唯一使用TPU的团队,直到2023年初Meta终止与谷歌云(GCP)的合作才暂停。”谢赛宁的表述,直接戳破了“Meta首次布局TPU”的市场误解。

学术界的“习以为常”与资本市场的“热烈反应”形成鲜明对比。纽约大学某AI实验室负责人表示,其团队在SiT(视觉Transformer变体)、RAE(递归自编码器)等项目中,多年来一直依赖TPU支撑大规模计算,“学生们如今都成了TPU/JAX/XLA(谷歌深度学习编译器)的专家,只是外界很少关注这些幕后技术细节”。一位网友的调侃更显辛辣:“市场在TPU推出10年后才‘发现’它,这反应速度也太慢了。”

算力竞争真相:英伟达“护城河”不深,谷歌TPU也非“救世主”

面对市场对TPU的热捧,英伟达迅速回应,称自家产品“领先行业一代,是唯一能运行所有AI模型、适配所有计算场景的平台”,并强调GPU比专用ASIC(如TPU)更具通用性与灵活性。但这一表态并未得到业内认可,Clive Chan指出,英伟达所谓的“护城河”实则薄弱——OpenAI为绕开CUDA生态,专门开发了Triton推理框架,仅用25行Python代码就能实现与英伟达cuBLAS(基础线性代数子程序库)相当的性能,“顶尖实验室完全有能力摆脱对CUDA的依赖,关键在于是否有优秀工程师推动”。

从成本与性能来看,TPU也未形成绝对优势。AI分析机构Artificial Analysis以Llama 3.3(70B参数模型)为测试对象,对比了英伟达H100、B200,AMD MI300X及谷歌TPU v6e的性价比:在每秒30 Token的处理速度下,完成100万输入+100万输出Token的成本,H100仅需1.06美元,B200约1.29美元,而TPU v6e高达5.13美元,英伟达芯片每1美元带来的Token收益是TPU v6e的5倍。即便谷歌最新的TPU v7,其FP8精度运算速度(4.6 PFLOP/s)与功耗(约1000瓦)表现,也仅与英伟达GB200(5 PFLOP/s,1200瓦)基本持平,未展现出碾压性优势。

行业专家进一步指出,谷歌推动TPU商业化,核心目标并非“击败英伟达”,而是通过锁定大客户订单保障芯片产能。人工智能分析平台Artificial Intuition作者Carlos E. Perez分析,谷歌正效仿苹果的供应链策略:通过与Meta、苹果等巨头签订长期协议(如六年云服务合同),以“每年消耗20万个TPU”的稳定需求为筹码,向芯片代工厂争取2纳米生产线25%的产能配额及成本价优惠。“这种操作能挤压中小芯片企业的产能空间,让Groq、Cerebras等公司难以获得优质晶圆,最终巩固谷歌在算力供应链中的地位。”

理性看待算力赛道:技术实力与生态建设才是关键

此次“TPU热炒”事件,也让行业重新审视算力竞争的核心逻辑。一方面,大型科技公司与顶尖实验室早已具备跨平台适配能力,无论是英伟达GPU还是谷歌TPU,本质上都是工具,关键在于是否拥有匹配的工程团队与技术储备——Meta能在2020年就用TPU推进前沿研究,正是依托何恺明团队的技术实力;OpenAI能绕开CUDA开发Triton,也印证了“优秀工程师可重塑算力平衡”的观点。

另一方面,算力生态的“通用性”与“稳定性”仍不可或缺。尽管TPU在特定AI任务中表现出色,但英伟达GPU因支持更多框架、适配更多场景,仍是中小企业与开发者的首选;而谷歌TPU虽在学术研究中应用广泛,但其对JAX/XLA生态的依赖,也提高了外部企业的接入门槛。某创业公司CTO坦言:“我们不会轻易切换到TPU,因为团队已熟悉CUDA生态,重新学习JAX的成本太高,除非有无法拒绝的性能或成本优势。”

对于普通投资者而言,此次事件更具警示意义:资本市场对技术热点的解读往往滞后于产业实践,盲目跟风易忽视核心事实。正如谢赛宁所言,TPU的价值早已在学术界与产业界得到验证,并非突然出现的“救世主”;而英伟达的市场地位,也不会因单一订单就被撼动。未来算力赛道的竞争,终将回归技术实力、生态完善度与成本控制能力的综合较量,而非短期市场情绪的摇摆。

© 版权声明

相关文章