反转!OpenAI与五角大楼达成机密合作协议,设技术屏障坚守AI伦理红线

AI 资讯20分钟前发布 dennis
0

就在Anthropic因坚守AI伦理红线与五角大楼陷入全面对峙之际,AI行业的博弈迎来关键反转。2026年2月28日,OpenAI CEO山姆·奥尔特曼官宣,公司已与美国国防部达成合作协议,允许其AI模型接入五角大楼的机密网络,而这份协议中明确设置了针对国内大规模监控、全自动武器研发的技术安全屏障,成为AI企业与军方合作的全新范本。

这一消息的公布,距离超300名谷歌员工、60余名OpenAI员工联署声援Anthropic仅过去一天,也发生在五角大楼向Anthropic发出的最后通牒到期之时。此前,五角大楼要求Anthropic等AI企业开放技术的“所有合法用途”访问权,遭到Anthropic的坚决抵制——该公司始终坚持AI技术不得用于国内大规模监控和全自主武器系统,即便面对被列为“供应链风险方”、援引《国防生产法》的强硬威胁,Anthropic CEO Dario Amodei仍明确表示“无法凭良心答应相关要求”。

Anthropic的强硬态度引发了特朗普政府的强烈反击。总统特朗普在社交平台发文怒斥Anthropic为“左翼疯子”,并下令联邦机构在六个月过渡期后停止使用该公司产品;国防部长Pete Hegseth则直接宣布将Anthropic列为供应链风险方,要求所有与美军有业务往来的承包商、供应商和合作伙伴,立即停止与Anthropic的任何商业活动。对此,Anthropic回应称尚未收到五角大楼和白宫的直接沟通,同时明确表示将通过法律途径挑战这一认定。

与Anthropic的全面对立不同,OpenAI与五角大楼的合作达成了看似双赢的结果。奥尔特曼在X平台发文表示,新的国防合同中纳入了Anthropic此前坚守的核心伦理原则,“禁止国内大规模监控、武力使用需由人类承担最终责任(包括自主武器系统)”这两大OpenAI核心安全原则,不仅得到国防部认可并体现在相关法律政策中,更被正式写入合作协议。

为确保原则落地,OpenAI将为此次合作打造专属的技术安全屏障,同时向五角大楼派驻工程师,全程保障模型的安全使用与合规运行。奥尔特曼还在全员会议中向员工透露,美国政府允许OpenAI搭建自主的“安全栈”以防止技术滥用,且明确承诺“若模型拒绝执行某项任务,政府不会强制要求其更改”。这也意味着,OpenAI在向军方开放机密网络使用权的同时,保留了对AI模型应用的核心控制权。

奥尔特曼还在声明中呼吁五角大楼将这一合作条款推广至所有AI企业,“我们认为这些条款是所有企业都愿意接受的,也强烈希望事件能从法律和政府行动的对抗,转向达成合理的协议”。这一表态,既为行业树立了AI技术军事应用的合作标杆,也试图化解当前AI企业与军方的对立局面。

值得注意的是,OpenAI的这一合作官宣,恰逢美以两国对伊朗展开轰炸、特朗普呼吁推翻伊朗政府的敏感节点,其AI技术在机密军事网络中的应用,也让外界对技术的实际使用场景产生诸多猜测。而此次合作的达成,也让此前联署声援Anthropic的OpenAI员工陷入尴尬境地,截至目前,OpenAI内部尚未有针对此次合作的公开争议声音,谷歌方面也仍未对该事件作出正式回应。

这场AI行业与五角大楼的博弈,从Anthropic的坚决抵制,到OpenAI的“带条件合作”,呈现出截然不同的两种应对方式,也折射出AI技术商业化与伦理约束的复杂平衡。Anthropic以放弃军方合作的代价坚守伦理红线,虽遭遇政府强硬反击,却赢得了行业内的广泛认可;OpenAI则通过技术屏障和协议约束,在与军方达成合作的同时守住了核心伦理底线,为AI技术的军事应用探索出了一条折中路径。

此次OpenAI与五角大楼的合作,也为全球AI行业的军事应用划定了新的边界:技术开放并非无底线的妥协,而是可以通过法律协议、技术手段实现合规约束。而五角大楼是否会如奥尔特曼所愿,将这一合作模式推广至整个行业,Anthropic与美国政府的法律对抗将走向何方,谷歌等其他AI巨头是否会跟进与军方的类似合作,都将成为后续行业关注的核心。这场围绕AI伦理与军事应用的博弈,也让全球AI行业的发展方向变得更加清晰——技术的快速发展,始终需要与伦理约束、合规监管同行。

© 版权声明

相关文章