AI芯片赛道再迎强力挑战者!2026年2月,由谷歌前TPU核心团队创办的MatX公司完成5亿美元(约合人民币34亿元)B轮融资,估值跃升至数十亿美元。这家手握“吞吐+低延迟”双buff技术的初创企业,凭借融合HBM与SRAM优势的新型芯片MatX One,剑指英伟达的行业霸主地位,而AI领域知名学者Andrej Karpathy的加盟投资,更让这场芯片突围战备受瞩目。
技术颠覆:打破“二选一”困局,兼顾吞吐与低延迟
当前AI芯片市场形成两大阵营:英伟达、谷歌等重押HBM(高带宽内存),主打大规模训练与高吞吐量;Cerebras Systems等则聚焦片上SRAM,以低延迟抢占推理场景。而MatX走出了第三条路——在单芯片上同时实现“训练级吞吐”与“推理级低延迟”,破解了行业长期面临的性能权衡难题。
其核心产品MatX One基于创新的“可拆分脉动阵列”架构,既继承了传统大型脉动阵列的高能效比与面积效率,又能在小尺寸、灵活形状的矩阵计算中保持高利用率。通过将SRAM优先设计的低延迟特性与HBM的长上下文处理能力深度融合,搭配全新数值计算方案,MatX One实现了“吞吐量超所有已公布系统+延迟追平SRAM优先设计”的双重突破。内部测试显示,其每平方毫米计算性能已超越英伟达即将推出的Rubin Ultra产品,尤其适配长上下文处理、Agent循环等复杂真实工作流。
明星团队:谷歌TPU班底,软硬全栈能力拉满
MatX的技术底气源于两位创始人的“谷歌基因”与互补技能。CEO Reiner Pope是谷歌TPU软件栈核心成员,从谷歌地图开发起步,主导过机器学习系统Sibyl的设计,后续深耕两代ML芯片架构,更是谷歌PaLM大模型的软硬件效率负责人,深谙“让芯片适配大模型”的核心逻辑。CTO Mike Gunter则是资深硬件专家,早于2000年创办无线通信芯片公司,被谷歌收购后主导首个硬件加速项目,将计算密集型任务性价比提升10倍以上,覆盖从逻辑电路到系统架构的全链条设计。
两人组成的“软硬全栈”核心团队,一人聚焦模型与硬件的协同优化,一人深耕芯片底层架构设计,为MatX One的技术创新提供了坚实支撑。目前公司团队规模已接近100人,形成了兼具学术深度与工程落地能力的研发梯队。
资本追捧:两轮融资6亿美元,卡帕西领衔投资
强大的技术潜力与团队背景让MatX成为资本宠儿。2025年3月,公司完成1亿美元A轮融资,由Anthropic早期投资方Spark Capital领投,Jane Street、GitHub前CEO等知名机构与个人跟投;2026年2月的B轮融资中,Jane Street与Situational Awareness LP联合领投,新增Karpathy、Stripe联创等重磅投资方,累计公开融资达6亿美元。
Karpathy作为AI领域权威,对MatX的投资颇具风向标意义。他直言,随着token需求激增,“合理编排内存与计算”成为LLM领域的关键机遇,而MatX正攻克这一“最有趣、回报最高的智力难题”。这笔融资将主要用于芯片设计收尾、产能预留与零部件备货,为2027年量产出货铺路。
市场前景:2027年出货,挑战英伟达还是成为下一个Groq?
MatX已明确与台积电达成合作,计划2026年完成MatX One全部设计,2027年正式出货,初期客户锁定少数领先人工智能实验室。其崛起恰逢AI芯片市场格局重塑期——此前同样源自谷歌TPU团队的Groq,已被英伟达以200亿美元收购,引发行业对“创新芯片公司归宿”的热议。
对于MatX而言,既有机会凭借技术差异化打破英伟达垄断,也面临着巨头竞争、量产落地等多重挑战。若能如期实现技术承诺,其芯片将为大模型训练、Agent应用等场景带来效率革命,让企业在同等预算下支撑更大模型、更长上下文与更快交互响应。而随着AI技术对算力的需求持续爆发,这场由谷歌前团队发起的芯片革新,或将改写全球AI硬件的竞争版图。
从技术路线到团队背景,MatX都展现出“颠覆者”的潜质。2027年芯片正式出货后,其能否兑现性能承诺、在英伟达主导的市场中撕开缺口,将成为AI硬件领域最值得关注的焦点。