AI基建狂揽15亿美元!Lambda借微软东风崛起,成数据中心新巨头

AI 资讯17小时前更新 dennis
0

11月18日,专注于AI专用数据中心的美国初创企业Lambda宣布完成15亿美元的D轮融资,本轮融资由软银愿景基金领投,老虎环球、红杉资本等知名机构跟投。值得关注的是,此次融资距离Lambda与微软达成数十亿美元的合作协议仅过去3个月,凭借与科技巨头的深度绑定及AI算力市场的爆发,Lambda估值较上一轮融资暴涨2.5倍,一举成为AI数据中心领域的新晋独角兽。

15亿美元融资背后:微软订单撑起增长底气

Lambda此次能获得资本如此青睐,核心底气来自与微软的重磅合作。今年8月,Lambda与微软签署了一份为期5年、价值超20亿美元的合作协议,将为微软Azure云平台提供AI专用数据中心解决方案,包括定制化服务器集群、高功率散热系统及算力调度软件等核心服务,以支撑微软Copilot、GPT-4等AI产品的大规模训练与推理需求。

这份合作协议不仅为Lambda带来了稳定的现金流,更使其在技术研发与市场拓展上获得了巨大优势。据Lambda创始人兼CEO韦斯·麦卡蒂透露,与微软的合作让公司的技术标准直接对标全球顶尖AI算力需求,“微软对算力密度、能效比及稳定性的严苛要求,倒逼我们在6个月内完成了三代产品的迭代,现在我们的数据中心能支持单机柜100千瓦的超高功率密度,是行业平均水平的3倍。”

15亿美元融资的用途也高度聚焦AI算力基建。根据融资计划,其中8亿美元将用于在美国得克萨斯州、弗吉尼亚州及欧洲爱尔兰建设三座超大型AI数据中心,预计2026年底全部投产,投产后总算力将达到5000 PFlops(每秒500万次浮点运算),可同时支撑10个以上千亿参数大模型的训练任务;4亿美元用于研发下一代AI服务器与液冷散热技术,提升算力效率;剩余3亿美元则用于拓展亚太市场,计划在新加坡、日本设立区域总部及研发中心。

“AI算力的需求缺口不是短期现象,而是未来5-10年的确定性趋势。”领投方软银愿景基金合伙人松井健太郎表示,选择投资Lambda,不仅是看好其与微软的合作前景,更认可其在AI数据中心领域的技术壁垒——Lambda自主研发的“Lambda Stack”算力调度系统,能将GPU利用率提升至92%,远超行业75%的平均水平,这在算力成本高企的当下极具竞争力。

差异化突围:从“通用数据中心”到“AI专用”的精准卡位

在亚马逊AWS、谷歌Cloud等云巨头已布局数据中心的背景下,Lambda的崛起并非偶然,其核心竞争力在于“AI专用”的精准定位,避开了与通用云厂商的正面竞争。与传统数据中心相比,Lambda的AI专用数据中心在硬件配置、软件优化及能效管理上均有显著差异。

硬件层面,Lambda的数据中心采用“GPU密集型”架构,放弃了传统数据中心以CPU为核心的配置,每台服务器可搭载8-16块英伟达H100或AMD MI300 GPU,通过高速NVLink互联技术实现GPU间的低延迟通信,大幅提升AI模型的训练效率。以训练一个千亿参数的大模型为例,使用Lambda的数据中心较传统数据中心可节省40%的时间成本。

软件层面的优势更为突出。Lambda自主研发的“Lambda Stack”系统整合了算力调度、模型优化、能耗管理等多项功能,能实时监控每块GPU的负载情况,动态分配算力资源,避免算力浪费;同时,该系统还与TensorFlow、PyTorch等主流AI框架深度兼容,降低了企业的使用门槛。“我们的客户不需要组建专业的算力运维团队,通过简单的API调用就能实现大规模算力的按需使用。”麦卡蒂介绍道。

能效管理是Lambda的另一大亮点。AI数据中心的高功率密度会产生大量热量,传统风冷方式难以满足散热需求。Lambda采用了全液冷散热方案,通过绝缘冷却液直接与GPU接触散热,散热效率较风冷提升5倍,同时将数据中心的PUE(电源使用效率)控制在1.08以下,远低于行业1.2的平均水平,这不仅降低了客户的能耗成本,也符合全球碳中和的趋势。

除了微软,Lambda的客户还包括OpenAI、Anthropic等头部AI初创企业,以及特斯拉、英伟达等科技公司。截至目前,Lambda已建成并运营5座AI数据中心,总算力达1200 PFlops,2025年营收预计突破8亿美元,较去年增长300%。

行业震动:AI数据中心成资本新宠,竞争格局生变

Lambda的融资事件,再次印证了AI数据中心赛道的巨大潜力。随着大模型向万亿参数、多模态方向发展,对算力的需求呈爆发式增长,带动AI数据中心成为资本投资的焦点。数据显示,2025年全球AI数据中心领域的融资额已突破80亿美元,较2024年增长120%,其中单笔融资超10亿美元的交易就有5起。

传统云巨头也在加速布局AI专用数据中心。亚马逊AWS计划投资100亿美元建设AI专用数据中心集群,谷歌Cloud推出了“AI Supercomputer”服务,微软Azure则通过与Lambda、英伟达等企业合作,快速扩充AI算力储备。“未来数据中心行业将呈现‘通用+专用’的二元格局,通用数据中心满足日常计算需求,AI专用数据中心聚焦大模型训练与推理,两者相辅相成。”IDC数据中心研究总监弗兰克·吉列表示。

对初创企业而言,Lambda的成功提供了可复制的突围路径——通过聚焦AI算力这一细分赛道,在硬件配置、软件优化等方面建立技术壁垒,再通过与科技巨头合作获得订单与资源,实现快速成长。目前,已有多家专注于AI数据中心的初创企业获得资本关注,如专注于边缘AI数据中心的Vast Data、聚焦液冷技术的Iceotope等,均在2025年完成了大额融资。

但赛道的快速升温也带来了新的挑战。一方面,GPU等核心硬件资源供不应求,导致数据中心建设成本居高不下;另一方面,各国对数据中心的能耗、碳排放提出了更严格的要求,增加了企业的运营压力。“只有在算力效率、能效管理上具备核心优势的企业,才能在未来的竞争中存活下来。”麦卡蒂表示,Lambda将持续加大研发投入,在量子计算与AI融合的算力架构、零碳数据中心技术等领域提前布局。

未来展望:绑定巨头+技术创新,剑指全球AI算力龙头

凭借与微软的深度合作及此次15亿美元融资,Lambda已明确了未来的发展目标——成为全球领先的AI算力基础设施服务商。按照规划,到2028年,Lambda将在全球建成20座超大型AI数据中心,总算力突破30000 PFlops,占全球AI专用算力市场的15%以上。

在市场拓展上,Lambda将采取“先欧美后亚太”的策略,除了在新加坡、日本设立区域总部外,还计划在2027年进入中国、印度等新兴市场,与当地的云厂商、AI企业开展合作。“亚太地区的AI发展速度非常快,未来将成为全球最大的AI算力市场,我们必须提前布局。”麦卡蒂说道。

技术研发上,Lambda已与斯坦福大学、麻省理工学院建立联合实验室,重点研发下一代AI算力架构,包括基于量子芯片的混合算力系统、自主可控的AI服务器芯片等,试图摆脱对英伟达GPU的依赖,构建更完整的技术生态。“长期来看,AI数据中心企业的核心竞争力将从‘算力提供’转向‘算力生态构建’,只有掌握核心技术,才能在产业链中占据主导地位。”

© 版权声明

相关文章