坚守AI使用红线遭五角大楼强硬反击 Anthropic被指构成国家安全不可接受风险

AI 资讯1小时前发布 dennis
0

当地时间 2026 年 3 月 18 日,美国国防部正式对外宣称,AI 初创公司 Anthropic 因其设立的企业技术使用 “红线”,对美国国家安全构成 “不可接受的风险”。这是五角大楼首次针对 Anthropic 的诉讼作出公开反驳,此前 Anthropic 就国防部长皮特・赫格塞思将其列为供应链风险的决定提起诉讼,并请求法院临时禁止国防部执行该认定,这场 AI 企业与美国军方的正面博弈就此进一步升级。

此次国防部在加州联邦法院提交的 40 页法律文件中,明确阐述了核心反对理由:五角大楼担忧,一旦 Anthropic 认为其设定的企业 “红线” 被触碰,可能会在军事作战行动前或行动过程中,“试图禁用其技术或先发制人地改变模型行为”,这将直接影响美军相关行动的开展,对国防安全造成潜在威胁。

这场争端的根源,源于 Anthropic 与五角大楼此前的合作与后续的条款分歧。2025 年夏天,Anthropic 曾与五角大楼签署一份价值 2 亿美元的合同,成为首个将其 AI 技术部署于美军机密系统的 AI 实验室。但在后续的合同条款谈判中,Anthropic 明确划出两条技术使用 “红线”:其一,其 AI 系统不得用于对美国公民的大规模监控;其二,现阶段技术尚未成熟,不能应用于致命性武器的目标锁定或开火决策环节。而五角大楼则坚持,私营企业无权决定军方对技术的使用方式,认为军方应拥有技术的完全使用权。

Anthropic 显然不愿妥协,随后便将美国国防部告上法庭,指控五角大楼的相关决定侵犯了其宪法第一修正案权利,是基于意识形态对公司进行惩罚。这一诉讼也引发了科技界和法律界的广泛关注,众多机构纷纷发声反对国防部对 Anthropic 的处置方式,认为五角大楼若不满合作条款,直接终止合同即可,无需将其列为供应链风险。包括 OpenAI、谷歌、微软在内的多家科技企业及其员工,还有多个法律权益组织,均已提交法庭之友意见书,公开支持 Anthropic 的诉求。

值得注意的是,Anthropic 成为了首家被美国国防部列为 “供应链风险” 的本土科技企业,这一标签此前通常仅适用于外国对手企业。此前美国总统特朗普已下令所有联邦机构立即停止使用 Anthropic 的技术,并给出六个月的过渡期,此次国防部的表态,更是让双方的矛盾彻底公开化。

目前,法院已定于下周二就 Anthropic 提出的初步禁令请求举行听证会,这场关于 AI 技术使用边界、企业自主经营权与国家安全需求的博弈,即将迎来关键的法律节点。截至目前,Anthropic 方面尚未对国防部的最新表态作出回应。

这场争端也折射出当下 AI 技术发展过程中的核心矛盾:随着 AI 技术在军事领域的应用日益深入,技术企业的伦理坚守与军方的实际使用需求之间的平衡难题愈发凸显。Anthropic 为其 AI 模型设定使用红线,是出于技术伦理和安全的考量,而五角大楼则从国家安全角度出发,希望获得技术的无限制使用权,双方的分歧本质上是 AI 技术商业化与军事化应用中的价值冲突。此次事件也为全球 AI 行业敲响警钟,如何在技术创新、商业应用与国家安全、伦理规范之间找到合理边界,成为行业亟待解决的重要课题。

© 版权声明

相关文章