【文/网 心智观察所】
美国人工智能公司Anthropic最近成为华盛顿政治与军方争议的中心。美国总统特朗普公开指示所有联邦机构立即停止使用该公司开发的AI技术,并允许包括国防部门在内的机构有六个月的逐步退出期,这一极为罕见的举措引发了全球关注。
不久前,Anthropic公开指控DeepSeek、MiniMax等中国AI对其模型进行“工业级蒸馏攻击”时,很多人第一反应是:这是一家典型的“对华强硬派”公司。然而,仅仅几天后,特朗普却宣布要求联邦机构停止使用Anthropic的模型。
一个一边高举“国家安全”大旗、攻击中国AI模型的公司,为何反而遭到美国政府的禁用?如果简单贴上“反华”标签,反而会错过这场冲突真正的逻辑。
能力扩散焦虑
Anthropic的创始人阿莫迪出身于OpenAI早期核心团队,是硅谷“AI安全主义”思潮的代表人物之一。他长期强调高能力模型存在系统性风险,主张在能力扩散之前建立严格的安全护栏。
他的核心论点并不是“某个国家危险”,而是“高能力AI本身危险”。在他看来,无论模型落入谁手,只要缺乏约束,都可能被用于大规模监控或自主武器系统。
这种思想源头可以追溯到有效利他主义与长期风险主义的影响圈。其逻辑是:人工智能能力一旦达到某种临界点,可能带来结构性风险,因此必须在部署前设置约束。
Anthropic提出“宪法式AI”,本质是试图用内置规则来约束模型输出。这套理念在对华问题上也体现为一种“能力扩散焦虑”——它强调对前沿芯片、模型能力进行出口管制,担心技术被用于军事与监控场景。但这种表达更多是安全逻辑,而不是民族主义逻辑。
这正是复杂性所在。Anthropic在对中国企业的指控中使用了国家安全话语,客观上参与了美国对华技术竞争的叙事。但它的根本出发点,是对“能力扩散”的担忧,而不是对某个国家的敌意。它既可以批评中国公司蒸馏,也可以拒绝美国军方在军事用途上的“无限授权”。它在两个方向上都划红线。
对于五角大楼而言,AI已是战略核心能力。当军方要求模型“用于任何合法用途”时,企业如果在合同层面设定绝对禁区,就会被视为削弱国家行动能力。
西方主流媒体普遍认为,这次的禁用,既不是简单的商业合同纠纷,也不仅仅是意识形态口水战,而是美国政府在AI国家安全体系内重新划定技术与权力边界的表现。
这场对抗的导火索,是Anthropic在与美国五角大楼谈判中拒绝接受对其AI模型“Claude”在军事上的无限制使用要求。
美国政府希望AI技术在所有“合法用途”上为军方提供支持,包括可能涉及大规模监控或无人监督的自主武器。而Anthropic则拒绝在其安全规范之上无条件移除限制,将AI用于这些潜在高风险应用。多数报道指出,这一根本分歧最终导致了政府的强硬回应。
美国国防部对于AI技术在未来战争中的潜力视作国家安全核心资产,因此在合同条款上要求完全开放的技术访问权限。作为曾与国防部签署价值数亿美元合同的AI公司,Anthropic坚持其模型不能被用于大规模监控美国公民或具有完全自主致命行动的武器。这一立场在公司创始人长期倡导的“安全优先”哲学中一贯体现。
在美国政府看来,这种“技术上的自我禁锢”有可能限制战争效率、危及军人安全,甚至被视为对军方权威的挑战。五角大楼和国防部长公开将Anthropic列为“供应链风险”,表明这种观点已经不再是单纯的商业争论,而被纳入国家战略与安全范畴。如此的风险分类往往用在与外国竞争者相关的技术公司上,这显示了政府对Anthropic的强硬态度。