2026年2月27日,AI行业掀起一场关于技术伦理与军事应用的激烈博弈——Anthropic因拒绝五角大楼无限制获取其AI技术的要求陷入对峙,而在五角大楼设定的周五下午最后通牒来临之际,超300名谷歌员工与60余名OpenAI员工联名发布公开信,呼吁自家公司高层放下竞争分歧、坚定站在Anthropic一侧,共同捍卫AI技术不被用于国内大规模监控和全自动武器研发的红线。
此次Anthropic与五角大楼的矛盾,源于美军对其AI技术的无限制访问诉求。尽管Anthropic与五角大楼早已存在合作关系,但该公司始终坚守核心底线:其AI技术绝不应用于国内大规模监控和全自主武器系统研发。而五角大楼为迫使Anthropic妥协,由国防部长Pete Hegseth向Anthropic CEO Dario Amodei发出强硬威胁——若拒不配合,将要么把Anthropic列为“供应链风险方”,要么援引《国防生产法》(DPA)强制其遵守军方要求。
面对这一矛盾,Anthropic的态度始终坚定。Amodei在2月26日的声明中直言,五角大楼的两项威胁本身就自相矛盾:“一边将我们贴上安全风险的标签,一边又宣称Claude对国家安全至关重要。但无论如何,这些威胁都无法改变我们的立场,我们无法凭良心答应他们的要求。”
正是Anthropic在技术伦理上的坚守,引发了谷歌、OpenAI员工的集体声援。在公开信中,员工们直指五角大楼正试图通过“制造各家公司会相互妥协的恐慌”来分化行业,“而这一策略的得逞,前提是我们彼此不清楚对方的立场”。他们明确呼吁谷歌、OpenAI高管与Anthropic保持一致,共同拒绝五角大楼的不合理要求,守住AI技术应用的伦理边界。
截至目前,谷歌和OpenAI官方尚未对公开信作出正式回应,但双方的非正式表态已显露对Anthropic的支持倾向。OpenAI CEO山姆·奥尔特曼在接受CNBC采访时直言,自己“个人认为五角大楼不该用《国防生产法》威胁这些企业”;而OpenAI发言人也向CNN确认,公司与Anthropic持相同立场,同样反对AI用于自主武器和大规模监控。
谷歌方面,DeepMind虽未正式回应此次矛盾,但公司首席科学家Jeff Dean以个人身份在X平台发声,明确反对政府的大规模监控行为:“大规模监控违反宪法第四修正案,会对言论自由产生寒蝉效应,这类监控系统也极易被用于政治目的或歧视性操作。”其表态与联署员工的诉求形成呼应,也代表了谷歌内部对AI伦理的主流态度。
事实上,美军早已在AI技术应用上展开布局。据Axios报道,目前美军已可将X的Grok、谷歌的Gemini以及OpenAI的ChatGPT用于非机密任务,同时正与谷歌、OpenAI谈判,试图将这些企业的AI技术纳入机密工作场景。此次针对Anthropic的强硬要求,正是美军进一步扩大AI军事应用的重要一步,而Anthropic的坚决抵制,无疑成为了行业的“第一道防线”。
这场行业与军方的对峙,不仅关乎一家企业的技术取舍,更折射出全球AI行业在技术发展与伦理约束之间的核心矛盾。随着AI技术的快速迭代,其在军事、监控等领域的应用潜力不断释放,但若缺乏明确的边界约束,极易引发技术滥用、人权侵害等一系列问题。而此次谷歌、OpenAI员工跨越企业的联署声援,以及Anthropic坚守伦理底线的强硬态度,正是AI行业对技术应用边界的一次集体捍卫。
目前,五角大楼的最后通牒已临近,Anthropic仍未松口,而谷歌、OpenAI的高层是否会正式回应员工诉求、与Anthropic形成行业合力,成为事件的关键走向。若科技企业能达成共识、共同抵制不合理的军事应用要求,或将为AI行业树立起技术伦理的行业准则;而若五角大楼凭借《国防生产法》强制施压成功,可能会打破AI技术的伦理边界,引发行业技术应用的连锁反应。这场博弈的结果,也将为全球AI技术的监管与应用划定重要的参考坐标。