当AI技术与军事应用碰撞,一场关乎技术伦理、国家权力与企业自主的激烈对抗正在上演。2026年2月,美国AI巨头Anthropic与五角大楼陷入全面对峙,CEO达里奥·阿莫代(Dario Amodei)坚决拒绝军方无限制使用其AI模型的要求,坚守“不用于国内大规模监控”和“不支持全自主武器”的核心红线。而五角大楼则以“供应链风险”定性和《国防生产法》(DPA)强制授权相威胁,给出截至周五下午5点01分的最后通牒。这场博弈的核心,早已超越商业合作的范畴,直指一个关键命题:谁该掌控足以影响国家安全的强大AI系统?
企业坚守伦理底线:AI暂不具备“致命决策权”
Anthropic的强硬立场,源于对AI技术成熟度与潜在风险的清醒认知。自成立之初,该公司就始终强调AI的独特风险,坚持为技术应用设置特殊保障,这与传统国防承包商“不问用途、只供产品”的模式截然不同。在Anthropic看来,当前AI模型尚未具备支撑高风险军事应用的能力,贸然用于自主武器和大规模监控,可能引发不可挽回的后果。
从自主武器来看,美军并非完全禁止AI自主决策攻击。根据2023年美国国防部(DoD)发布的指令,AI系统只要符合特定标准并经高级官员审核,即可在无人干预的情况下选择并打击目标。但军事行动的高度保密性意味着,一旦Anthropic的模型被用于此类场景,外界可能直到技术投入实战才会知晓。Anthropic担忧的是,现阶段AI仍可能出现目标误判、未经授权升级冲突等问题——一个运算速度极快、却缺乏复杂情境判断力的AI,在生死抉择面前可能成为“致命漏洞”。
而在国内监控领域,AI的介入可能让现有监管体系面临失控风险。尽管美国法律允许特定情况下对公民的通讯数据进行收集,但AI技术能实现大规模模式识别、跨数据集关联分析、预测性风险评分等功能,将合法监控升级为“无差别、自动化”的全面监视,严重威胁公民隐私与言论自由。Anthropic明确表示,其反对的并非这些用途永久封禁,而是在AI技术尚未成熟、相关规范尚未完善的当下,不应贸然开启潘多拉魔盒。
军方强势施压:拒绝被企业“绑定”作战决策
五角大楼的态度则充满了权力主导的强硬色彩。国防部长皮特·赫格塞斯(Pete Hegseth)直言,国防部不应被供应商的内部政策所限制,有权将技术用于任何“合法用途”。军方发言人肖恩·帕内尔(Sean Parnell)在社交平台上强调,军方并无大规模监控或部署自主武器的意图,只是要求获得“全合法用途”的技术使用权,避免因企业限制而危及军事行动和士兵安全。
但赫格塞斯的过往言论透露出更深层的矛盾。今年1月,他在SpaceX和xAI办公室的演讲中痛斥“觉醒AI”(woke AI),宣称“国防部的AI是为战争而生,不是为常春藤盟校休息室打造的聊天机器人”。这种带有文化对立色彩的表态,让外界猜测此次对峙或许也掺杂着军方对科技企业“伦理干预”的不满——在军方看来,作战决策的主导权应完全掌握在国家手中,企业无权通过技术限制划定军事行动的边界。
值得注意的是,五角大楼的两项威胁存在内在矛盾:一方面将Anthropic列为“供应链风险”,暗示其技术存在安全隐患;另一方面又试图通过《国防生产法》强制要求其适配军方需求,承认其技术对国家安全的重要性。这种矛盾的姿态,也凸显了军方既需要AI技术赋能,又不愿受企业约束的两难处境。
僵局难破:双方均无退路的高风险博弈
这场对峙中,没有真正的赢家,任何一方退让或强硬到底,都可能引发连锁反应。对Anthropic而言,“供应链风险”的定性几乎等同于“致命打击”。专注国防科技投资的风投机构Trousdale Ventures合伙人萨钦·塞思(Sachin Seth)直言,这一标签可能让Anthropic彻底失去政府业务,甚至面临生存危机。但反过来,若Anthropic妥协,不仅违背自身的技术伦理初衷,也可能引发行业信任崩塌。
对五角大楼来说,僵局同样危险。Anthropic的AI模型目前在行业内处于领先地位,若双方合作终止,美军可能需要等待6至12个月,才能让OpenAI或xAI的技术达到同等水平。这意味着未来一年,美军可能只能依赖次一级的AI模型开展相关工作,形成国家安全层面的技术空白期。
更关键的是,潜在替代者的立场也各不相同。埃隆·马斯克旗下的xAI正积极推进技术的“机密级适配”,从马斯克的公开表态来看,xAI大概率愿意向军方完全开放技术控制权;而OpenAI的近期报告显示,其可能会坚守与Anthropic相同的伦理红线,拒绝无限制军事应用。这也意味着,五角大楼的“替代方案”并非完美无缺,强行替换供应商可能面临新的伦理争议或技术短板。
AI军事应用的终极拷问:技术边界谁来定?
Anthropic与五角大楼的博弈,本质上是AI时代技术治理的缩影。随着AI能力日益强大,其在军事、安防等敏感领域的应用边界问题愈发迫切。企业作为技术研发者,是否有权为技术设置使用限制?政府作为公共利益的维护者,又该如何平衡国家安全需求与公民权利保障?这些问题目前尚无标准答案。
从行业层面看,Anthropic的坚守为AI企业树立了伦理标杆——技术不应是纯粹的商业产品,研发者需对其潜在风险承担责任。但在国家机器的强硬诉求面前,企业的伦理坚守能否持续?若此次Anthropic被迫妥协,可能会形成“劣币驱逐良币”的效应,让更多企业放弃技术伦理底线;若其坚持到底并获得支持,则可能推动AI军事应用形成更清晰的行业规范。
目前,最后通牒的期限日益临近,Anthropic仍未松口,明确表示将通过法律途径挑战“供应链风险”的定性。这场博弈的最终结果,不仅将决定Anthropic的企业命运,更将为全球AI技术的军事应用划定关键边界。在技术高速发展的今天,如何让AI既服务于国家需求,又不偏离伦理轨道,或许是比技术突破更重要的时代课题。