AI巨头与美国军方的正面交锋正式打响。2026年2月26日,Anthropic首席执行官达里奥·阿莫迪(Dario Amodei)发布重磅声明,明确表示“无法凭良心同意五角大楼的要求”,拒绝向美军开放其AI系统的无限制访问权限,距离美国国防部长皮特·赫格塞斯设定的最后通牒期限仅剩不到24小时。这场围绕AI军事应用的博弈,不仅关乎一家企业的技术伦理底线,更折射出前沿AI技术商用与军用之间的深层矛盾。
两大红线划界,拒绝无底线军事应用
阿莫迪在声明中清晰划定了Anthropic的技术应用底线,明确反对将其AI系统用于对美国民众的大规模监控和无人类干预的全自主武器两大场景。他表示,Anthropic认可军方是军事决策的主导者,但在特定情况下,AI的不当使用不仅会损害民主价值观,部分应用场景也超出了当前技术安全、可靠运作的边界,这是企业无法妥协的核心原则。
而五角大楼则坚持,其有权将Anthropic的AI模型用于所有合法军事用途,相关使用场景不应由私营企业主导决定。双方的核心分歧,本质上是企业技术伦理自主权与军方国家安全应用需求之间的激烈碰撞,也是前沿AI技术发展过程中无法回避的价值抉择。
五角大楼祭出双重威胁,企业直指矛盾核心
为迫使Anthropic妥协,美国国防部拿出了强硬的施压手段,祭出两大杀手锏:一是将Anthropic标记为供应链安全风险,这一标签此前仅用于认定外国敌对势力相关企业;二是援引《国防生产法》,该法案赋予总统强制企业优先为国防需求开展生产、扩大产能的权力,意味着五角大楼可依法强制Anthropic配合其要求。
面对军方的双重威胁,阿莫迪直接点出其中的逻辑矛盾:“一边将我们列为安全风险,一边又将Claude定义为国家安全的关键资产,这一说法本身就自相矛盾。”他同时强调,国防部有权选择与其愿景高度契合的合作方,但Anthropic的技术为美军提供了巨大价值,希望军方能够重新考虑这一决定。
目前Anthropic是唯一一家为美军打造出符合机密信息处理标准的前沿AI实验室,其Claude系列模型已深度应用于美军的多项军事规划与作战支持任务。尽管有消息称,美国国防部正推动xAI完成同类系统的研发,作为潜在替代方案,但短期内Anthropic的技术仍具备不可替代性。
期限逼近仍坚守立场,愿体面退场避免任务中断
此次五角大楼设定的最后通牒将于当地时间2月27日下午5点01分到期,Anthropic若不妥协,将直面军方的后续制裁措施。但阿莫迪在声明中展现出坚定的立场,同时也释放出理性沟通的信号。
他表示,Anthropic的首要选择仍是在保留两大安全保障条款的前提下,继续为美军及前线作战人员提供技术服务;若国防部最终决定终止合作,公司也将全力配合完成向其他供应商的平稳过渡,避免对美军正在进行的军事规划、作战行动及其他关键任务造成任何干扰。简言之,Anthropic的态度是“即便分道扬镳,也无需针锋相对”。
行业热议:AI企业的伦理底线与军方需求的平衡难题
这场AI巨头与五角大楼的博弈,迅速引发科技行业与国防领域的广泛热议。一方面,业内对Anthropic坚守技术伦理底线的做法表示认可,认为前沿AI企业在商业化与军用化的平衡中,必须守住技术安全与人文价值的底线,尤其是全自主武器、大规模监控等场景,一旦失控将引发不可预估的后果。
另一方面,也有观点认为,在国家安全需求下,军方对前沿AI技术的应用存在客观必要性,私营企业与军方之间应建立更灵活的合作机制,在明确技术应用边界的基础上实现协同,而非简单的对立。
此次事件也成为AI技术发展到新阶段的标志性事件:随着大模型技术的不断成熟,其在国防、安全等领域的应用价值日益凸显,企业技术伦理、商业利益与国家公共利益之间的平衡,将成为全球AI行业面临的共同课题。对于Anthropic而言,此次硬刚五角大楼的选择,不仅考验着企业的商业勇气,更将为行业树立起AI军事应用的伦理标杆,其后续走向也将深刻影响全球前沿AI技术的发展与应用格局。