AI伦理危机:五角大楼对Anthropic下达最后通牒,重构国家安全与硅谷指令
五角大楼与Anthropic的AI合同危机:硅谷伦理与国家安全之争
2026年2月27日,美国国防部向人工智能公司Anthropic发出最后通牒:必须取消对其Claude AI模型在军事应用上的所有限制,否则将终止一份价值2亿美元的合同。这场始于技术伦理条款的争执在24小时内迅速升级。总统特朗普通过Truth Social平台下令所有联邦机构停止使用Anthropic技术,国防部长皮特·赫格塞斯则将这家硅谷公司列为“供应链风险”。同日,OpenAI首席执行官萨姆·奥特曼在内部会议上透露,他们正与五角大楼谈判一份包含“安全红线”的协议。这场冲突成为生成式AI技术商业化以来,科技公司与美国军事机构之间最公开的一次权力博弈。
合同危机的爆发与升级
危机的导火索藏在技术协议的细节里。根据《财富》杂志获取的内部信息,Anthropic与五角大楼的矛盾集中在三项被该公司称为“红线”的限制条款:禁止将AI用于国内大规模监控、禁止用于完全自主的致命性武器系统、禁止在没有人类监督的情况下进行关键决策。这些条款被写入了Anthropic通过数据公司Palantir提供给国防部的Claude AI模型中。
2月25日,国防部长赫格塞斯向Anthropic发出最后通牒,要求其在周五前移除这些限制,否则合同将被终止。赫格塞斯在公开声明中强调,国防部需要的AI模型必须能够用于“所有合法目的”。2月26日,Anthropic联合创始人兼CEO达里奥·阿莫代伊在公司博客上回应,称某些AI应用“完全超出了当前技术能够安全可靠执行的范围”。这种公开对抗激怒了特朗普政府。27日,特朗普在Truth Social上发文:“我命令美国政府的每一个联邦机构立即停止使用Anthropic的所有技术。我们不需要它,不想要它,也不会再和他们做生意!”他同时给予国防部六个月过渡期来移除Anthropic的系统。
更严厉的制裁接踵而至。赫格塞斯宣布将Anthropic列为“供应链风险”——这一法律认定此前通常只用于被视为对美国国家安全构成直接威胁的外国科技公司。Sky News的分析指出,这一举动意味着Anthropic可能面临更广泛的政府业务禁令和审查。危机的公开化速度超出了许多人预期。就在几个月前,Claude AI还是五角大楼“AI优先”战略的核心组成部分,被用于敏感军事规划和行动,包括2026年1月策划抓捕委内瑞拉总统尼古拉斯·马杜罗的“马文智能系统”。
五角大楼的需求与硅谷的伦理
从战略角度看,这场冲突是两种逻辑体系的碰撞。五角大楼的立场基于其“AI优先”的国防现代化战略。国防部官员私下向媒体透露,生成式AI在情报分析、后勤规划、网络防御、模拟训练和快速决策支持方面有变革潜力。Claude AI作为当时唯一获准在五角大楼内部广泛部署的前沿模型,已整合进多个关键系统。要求“所有合法用途”的访问权限,反映的是军事机构对技术工具可靠性的根本需求——在作战环境下,他们不能接受一个会在关键时刻拒绝执行任务的AI系统。
Anthropic的立场根植于其创立背景。这家公司由一群因安全担忧而从OpenAI离职的研究人员于2021年创立,其核心文化强调“可操纵AI”和“宪法AI”理念,即将伦理准则直接编码进模型的行为约束中。阿莫代伊本人是AI安全领域的知名倡导者,曾多次在国会听证会上警告不受控制的AI军事化风险。公司内部文件显示,Anthropic担心的具体场景包括:AI驱动的面部识别系统被用于针对国内抗议者的大规模追踪;自主无人机系统在无人类干预的情况下做出杀伤决定;以及AI在情报分析中产生无法追溯的偏见,导致错误的目标识别。
OpenAI的介入让局面更加复杂。2月28日,萨姆·奥特曼在X平台上宣布,已与国防部达成一项原则性协议,允许后者使用OpenAI的模型,但附有“保障措施”。奥特曼明确写道:“我们两个最重要的安全原则是禁止国家级大规模监控,以及在武力使用(包括自主武器系统)中保持人类责任。”他透露,五角大楼“赞同这些原则,在其立法和政策中体现了这些原则,我们也将其纳入了协议”。根据《财富》获取的OpenAI内部会议纪要,奥特曼告诉员工,政府同意OpenAI构建自己的“安全堆栈”——一套介于强大AI模型与现实使用之间的技术、政策和人工控制分层系统。如果模型拒绝执行某项任务,政府不会强迫OpenAI使其执行。
行业分裂与地缘政治影响
这场争端正在硅谷内部制造裂痕。超过400名来自谷歌和OpenAI的员工签署公开信,呼吁AI行业团结起来反对国防部的立场。信中写道:“允许AI系统在没有明确保障的情况下用于监控和自主武器,将开创一个危险的先例,损害全球对这项技术的信任。”但另一方面,包括Palantir在内的国防承包商公开支持五角大楼的立场,认为商业AI公司无权对政府如何使用合法获取的工具施加单方面限制。
地缘政治维度让情况更加微妙。OpenAI内部会议纪要提到,公司领导层在谈判中最担忧的方面之一是外国监控问题,特别是担心AI驱动的监控会威胁民主。但纪要也承认了一个现实:各国政府确实会对国际对手进行监控,国家安全官员“没有国际监控能力就无法开展工作”。会议中特别提到了威胁情报报告,显示中国已经在使用AI模型针对海外的异见人士。这种认知创造了一种矛盾心态:硅谷公司既想坚持伦理原则,又担心过度限制会削弱美国相对于竞争对手的技术优势。
欧洲和亚洲的盟友正在密切关注事态发展。英国Sky News的报道指出,特朗普政府对Anthropic的强硬反应“既关乎权力,也关乎AI安全”。如果美国最先进的AI实验室拒绝与军方无限制合作,而中国等竞争对手的AI公司没有类似约束,这可能改变军事AI领域的竞争平衡。一些北约国家的国防官员私下表示,他们也在评估本国AI军事化政策的伦理框架,美国的这场争端为他们提供了重要的参考案例。
未来走向:技术主权与商业模式的重塑
这场危机可能永久改变AI行业与政府的关系。五角大楼的2亿美元合同对Anthropic而言并非不可替代,但被列为“供应链风险”和联邦政府全面封杀,将对公司的商业前景、人才招募和资本市场估值产生深远影响。对于整个行业,一个根本性问题浮出水面:当一项技术同时具备巨大商业价值和国家安全重要性时,私营公司应该在多大程度上保留控制权?
OpenAI选择的路径——通过谈判达成包含具体技术保障的协议——可能成为一种折中模板。奥特曼在内部会议上强调,OpenAI将保留对技术保障如何实施、哪些模型在何处部署的控制权,并将部署限制在云环境而非“边缘系统”。在军事语境中,边缘系统可能包括飞机和无人机等作战平台。这种“可控接入”模式能否满足五角大楼的实战需求,仍有待观察。
更深层的影响在于技术主权的概念。特朗普政府将一家美国本土的顶级AI公司列为风险,这打破了传统上“国内技术即安全技术”的假设。它可能推动国防部加速投资内部AI研发能力,或更倾向于与那些所有权结构更简单、更易控制的国防承包商合作。长期来看,这场争端可能催生两套独立的AI技术生态:一套是受严格伦理约束的商业AI,另一套是专为国家安全需求设计的、规则不同的政府AI。
华盛顿与硅谷之间的这场对峙尚未结束。六个月的过渡期给了双方回旋余地,但核心矛盾——国家安全所需的灵活性与技术伦理要求的约束性——不会轻易消失。这场始于一份技术合同条款的争论,已经演变为关于AI时代权力分配、责任归属和技术治理的全国性辩论。其结果不仅将决定几家公司的命运,更将塑造未来十年人工智能与人类社会共处的规则。