# AWS re:Invent 2025押注AI智能体:10分钟发25款新品,从芯片到应用构建全栈生态,誓破企业AI落地困局
【量子位 2025年12月5日讯】云计算巨头AWS正以“all in AI智能体”的姿态,重新定义全球云与AI竞争格局。在12月1日-5日于拉斯维加斯举办的re:Invent 2025年度大会上,AWS CEO马特·加尔曼(Matt Garman)在首场主题演讲中便掀起“新品风暴”——10分钟内集中发布25款AI相关产品,全场两小时发布总量近40个,涵盖自研芯片、基础模型、智能体开发平台等核心领域。这一系列动作直指一个核心战略:推动AI从“辅助性助手”进化为“能自主干活的智能体(Agent)”,通过“芯片-模型-智能体-混合云”的全栈能力,破解企业AI“高投入、低回报”的落地痛点,同时向谷歌、微软等对手发起全面挑战。
算力层:Trainium 3性能暴涨4.4倍,兼容英伟达打破生态壁垒
作为AI生态的底层基石,AWS在自研芯片领域的突破成为此次大会焦点。全新发布的Trainium 3 AI芯片,采用台积电3纳米制程工艺,专为“推理主导”的行业需求量身打造——随着大模型训练向头部玩家集中,中小企业对“低成本、高效率推理”的需求已成为市场主流,而Trainium 3恰好切中这一痛点。
实测数据显示,与上一代产品相比,Trainium 3实现多维度颠覆:原始性能提升4.4倍,性能功耗比提升4倍,能源效率优化40%;部署GPT-OSS等主流开源模型时,单芯片吞吐量提升3倍,响应延迟缩短4倍。更关键的是,其能将AI模型全生命周期(训练+推理)成本降低50%,在英伟达GPU价格居高不下的当下,为企业提供了高性价比替代方案。
硬件架构上,Trainium 3单芯片提供2.52 PFLOPs(FP8)算力,支持FP32、BF16等多种精度格式,HBM3e内存容量提升至144GB、带宽达4.9TB/s,可有效缓解大模型内存瓶颈。通过全新Neuron Fabric互联技术,单台Trn3 UltraServer可集成144张芯片,总算力达362 FP8 PFLOPs;借助EC2 UltraClusters 3.0架构,更能扩展至100万张芯片的超级集群,规模较上一代提升10倍,目前已为Anthropic“Project Rainier”项目提供核心算力支撑。
更具行业颠覆性的是,AWS提前披露Trainium 4的关键特性:将原生支持英伟达NVLink Fusion高速互联技术。这一举措打破了云厂商自研芯片“封闭生态”的惯例——全球约80%的AI应用基于英伟达CUDA生态开发,兼容NVLink Fusion后,企业可在同一集群内灵活混搭Trainium芯片与英伟达GPU,按需分配训练、推理任务,大幅降低迁移门槛。Trainium 4预计FP8算力提升3倍、FP4算力提升6倍,未来将与Graviton CPU、EFA网络深度融合,进一步巩固AWS在算力层的竞争力。
此外,针对政府、金融等对数据主权敏感的行业,AWS推出“AI工厂(AI Factory)”主权云服务——将全栈AI能力延伸至客户本地或指定区域,构建等同于私有AWS区域的专属环境,数据本地化处理与存储可100%满足合规要求,同时将私有云部署周期从数年缩短至数月。目前,AWS已与沙特Humain公司合作建设部署15万张AI芯片的“AI Zone”,欧洲主权云也即将上线,由欧盟本地团队独立运营。
模型层:Nova 2家族对标GPT-5.1,Nova Forge破解“微调变笨”难题
在模型层,AWS补齐短板,推出Amazon Nova 2系列基础模型,涵盖Lite、Pro、Sonic、Omni四款细分产品,全面覆盖多模态、对话AI、代码生成等核心场景,直接对标行业头部模型。其中,Nova 2 Omni是业界首个支持“文本+图像+音频+视频”四模态输入输出的模型,可处理复杂多格式内容;Nova 2 Pro在基准测试中表现优于GPT-5.1,尤其擅长复杂指令遵循与逻辑推理;Nova 2 Lite则以“高性价比推理”为定位,上下文窗口达100万token,性能对标Anthropic Claude 4.5 Haiku,适合中小企业大规模部署。
为解决企业“模型微调效果差、易遗忘核心能力”的痛点,AWS同步推出Nova Forge开放式模型定制平台,首创“开放训练模型”概念——允许企业在模型预训练的最后阶段注入专有数据,无需进行传统微调,即可实现“基础模型能力+企业知识”的深度融合。例如,金融企业可将内部风控规则、客户数据融入预训练流程,生成专属金融大模型,避免传统微调导致的“能力退化”问题。索尼集团已作为早期客户采用该平台,计划将合规审查效率提升100倍。
与此同时,AWS持续扩容Amazon Bedrock模型库,新增18款开源模型,包括谷歌Gemma 3、英伟达Nemotron、阿里Qwen3-NEXT、月之暗面Kimi K2 Thinking等,形成“自研+第三方”的多元化模型生态。目前,Bedrock已支持超10万个AI推理应用,SDK下载量突破200万次,成为企业接入大模型的核心入口。
应用层:AgentCore立“智能体规矩”,Frontier Agents成“数字员工”
AWS此次大会的核心战略落点,是推动AI智能体的企业级落地。加尔曼在演讲中明确判断:“智能体AI(Agentic AI)将成为企业释放AI价值的关键,未来贡献占比将达80%至90%。”针对当前智能体部署“失控风险高、缺乏标准化工具”的痛点,AWS推出两大核心解决方案:
1. AgentCore Policy:给智能体设“行为底线”
AWS基于Cedar语言打造AgentCore Policy确定性控制系统,相当于为AI智能体制定“行为规则手册”。不同于传统模糊的提示词约束,该系统可实时拦截违规操作——例如阻止智能体发起超过1000美元的自动退款、限制未授权的数据访问、禁止生成违反行业合规的内容。企业可根据业务需求自定义规则,解决“AI行为不可控”的核心顾虑。
2. Frontier Agents系列:从“代码助手”到“自主干活的数字员工”
面向开发者与企业运维场景,AWS发布Frontier Agents系列智能体,覆盖软件工程全生命周期:
-
Kiro Autonomous Agent:可自主检测并修复代码漏洞,支持Java、Python等主流编程语言,在内部测试中修复Bug的效率比人工提升8倍;
-
Security Agent:代码提交前自动扫描安全漏洞,结合AWS漏洞数据库实时更新检测规则,可识别SQL注入、跨站脚本等200+种攻击风险;
-
DevOps Agent:具备根因诊断能力,半夜系统报警时可自动分析日志、定位故障源(如服务器负载过高、数据库连接异常),并生成修复建议,甚至执行自动化修复操作。
这些智能体已在AWS内部落地应用——运维团队反馈,DevOps Agent使故障平均解决时间(MTTR)缩短60%,安全漏洞检测率提升至98%。索尼、J.P.摩根等客户也计划将Frontier Agents接入内部系统,优化研发与运维效率。
生态与体验:6万现场观众+200万线上直播,聚焦“AI智能体落地”
此次re:Invent 2025大会吸引超6万名观众现场参与,线上直播观众接近200万,其中还包括首次通过《堡垒之夜》观看直播的玩家,创下历届大会规模纪录。大会设置五大核心板块,围绕AI智能体落地展开深度探讨:
-
技术 sessions:涵盖5场主题 keynote、500+场技术分论坛,从基础的AWS工具教学到500级深度的AI智能体开发实战,满足从新手到专家的学习需求;
-
互动培训:提供AWS新品实操课程,开发者可现场体验Trainium 3芯片的推理性能、Nova Forge的模型定制流程;
-
生态对接: Expo展区聚集超千家AWS合作伙伴,展示基于AI智能体的行业解决方案,如医疗智能诊断Agent、零售库存管理Agent等;
-
高端对话:J.P.摩根联合举办“Acquired”专场论坛,AWS CEO加尔曼与Perplexity AI CEO阿拉文德·斯里尼瓦斯等嘉宾,深入讨论“智能体时代的数字转型”“如何维持规模化创新”等话题;
-
社交活动:除传统的re:Play派对(含live音乐、躲避球游戏、静音迪斯科)外,新增“AI智能体黑客马拉松”,开发者可基于Bedrock AgentCore搭建创意应用,获胜者将获得AWS资源支持。
从商业数据来看,AWS的全栈AI布局已初见成效:目前其年化收入达1320亿美元,年增长率20%,过去一年收入增长额超220亿美元;Trainium系列芯片全球部署总量突破100万张,业务规模达数十亿美元;在AWS上构建的“独角兽”企业数量远超其他云平台,AI相关服务收入占比持续提升。
行业竞争:云厂商进入“AI全栈竞速赛”,AWS剑指生态主导权
AWS此次密集发布背后,是全球云厂商“AI全栈竞争”的白热化。谷歌云凭借TPU芯片与Gemini Agent强势布局,微软Azure深度绑定OpenAI,将Copilot Agents融入Office生态,国内阿里云也宣布投入3800亿元用于AI基础设施建设。各大厂商2025年资本开支合计超3000亿美元,主要投向服务器、数据中心与AI研发,全球云计算市场已从“算力规模竞争”转向“全栈能力比拼”。
加尔曼在演讲中强调:“AWS的目标不是成为另一家AI模型公司,而是构建让企业轻松落地AI智能体的生态平台。”通过“自研芯片压低成本、开放模型生态满足多元需求、标准化智能体工具降低部署门槛”,AWS正从传统云服务提供商向“AI全栈生态构建者”转型。
对于开发者与企业而言,AWS的全栈布局提供了“一站式AI落地解决方案”——无需整合多厂商资源,即可在AWS生态内完成从算力采购、模型定制到智能体开发的全流程。而Trainium 4兼容英伟达生态、Nova Forge支持第三方模型定制等举措,也展现出AWS“开放竞合”的策略,旨在吸引更多合作伙伴加入,巩固其在AI时代的云生态主导权。
随着大会的推进,AWS还将公布更多AI智能体的行业落地案例与客户反馈。这场“押注AI智能体”的战略升级能否帮助AWS在云与AI的竞速赛中拉开差距,企业客户是否会买账“全栈生态”,将成为未来一年行业关注的核心焦点。