Anthropic禁令的前因后果及AI时代的权力重塑
第一章 导言:技术红线与国家意志的宪政级对抗
2026年2月27日,特朗普发布了一项具有历史分水岭意义的行政指令,要求联邦政府所有机构“立即停止”使用Anthropic的技术产品,并指示包括国防部在内的关键部门在六个月内完成对该公司技术的全面剥离。在总统指令下达后不到两小时,美国国防部长皮特·海格塞斯采取了更为激进、且在历史上极具争议的惩罚性行政措施,正式将这家总部位于旧金山的美国本土顶尖科技初创公司列为“国家安全供应链风险”。
表面上,这似乎是一起典型的政府采购合同与企业合规纠纷。冲突的直接导火索在于Anthropic坚决拒绝在五角大楼的极限施压下让步,拒绝放弃其针对人工智能模型(Claude)设定的核心使用“红线”——即严禁将该技术用于针对美国公民的大规模国内监控(Mass Domestic Surveillance),以及严禁将其整合入无需人类实质性干预的全自动致命武器系统(Fully Autonomous Weapons)。然而,在这一表层政策摩擦之下,隐藏着一场关乎21世纪政治权力本质的深刻体制危机。
这不仅仅是五角大楼的强硬派与硅谷技术理想主义者之间的文化摩擦,更是传统民族国家通过“暴力垄断”(State Monopoly on Violence)所确立的主权体系,与新兴科技巨头通过“智力垄断”(Monopoly on Intelligence)所构建的“认知主权”(Cognitive Sovereignty)之间的首次正面、系统性且不可调和的结构性碰撞。在过去的数个世纪中,国家权力的最高表现形式是对合法暴力的绝对控制与行使;但在人工智能时代,当暴力的行使极度依赖于算法的预测、目标识别与逻辑推理时,掌握最强智力的AI模型商实质上已经获得了对国家暴力机器的“事实否决权”。
本报告将基于详尽的事件时间线、内部泄露信息以及宏观政治经济学理论,穷尽式地梳理特朗普政府对Anthropic实施全面禁令的前因后果,深度剖析Maven智能系统(MSS)及2026年1月马杜罗(Maduro)抓捕行动在此次危机中扮演的催化剂角色。更重要的是,本报告将深度解析在人工智能时代,掌握最大物理破坏力的传统政府与掌握最强认知计算力的AI企业之间,是如何发生权力倒转与深层结构重塑的。
第二章 危机纪实:从技术合作到全面封杀的演进脉络
要理解这场危机的全貌,必须追溯Anthropic与美国国防部之间复杂且脆弱的合作历史。这场冲突并非一日之寒,而是伴随着前沿AI在军事网络中部署深度的增加而逐渐积累的结构性矛盾的总爆发。
2.1 蜜月期的终结:两亿美元合同与机密网络的唯一入场券
在2026年危机爆发之前,Anthropic与美国国防部保持着极其紧密的合作关系。作为一家由前OpenAI核心研究人员于2021年创立的企业,Anthropic以其标榜的“宪法AI”(Constitutional AI)和对人工智能安全(AI Safety)的极致追求而闻名。2025年夏季,Anthropic与五角大楼签署了一项价值高达2亿美元的合同,旨在全方位提升国防部的人工智能能力。
更为关键的是,Anthropic的Claude模型是当时唯一一个被正式授权并大规模部署在五角大楼机密网络(Classified Networks)上的前沿大型语言模型。军方通过数据分析巨头Palantir的技术基础设施,将Claude深度整合到了各军种的作战与情报分析系统中。国防部高层,如研究与工程部官员埃米尔·迈克尔(Emil Michael)等,最初对这种技术合作寄予厚望,试图利用硅谷的顶尖智力资源来维持美国对潜在地缘政治对手(特别是中国)的绝对军事技术代差。
然而,Anthropic从创立之初便将其企业愿景与严格的安全伦理绑定。在交付给军方的模型使用条款中,Anthropic明确设定了不可逾越的“红线”:
- 反监控条款:严禁利用Claude模型强大的数据摄取与关联分析能力,对美国境内公民进行无差别的大规模监控,以防止技术成为侵犯宪法第四修正案隐私权的工具。
- 反自动杀伤条款:鉴于当前的大语言模型普遍存在无法彻底根除的“幻觉”及不可靠性,严禁将Claude用于全自动武器系统中进行最终的致命目标选择和打击授权,以避免不可挽回的平民伤亡或军事误判升级。
2.2 催化剂时刻:Maven智能系统(MSS)与马杜罗跨国抓捕行动
理论上的伦理红线在触及真实的战争机器时,迅速演变为不可调和的矛盾。这场纸面上的合同纠纷之所以在2026年1月至2月迅速升级为白热化的政治风暴,其直接催化剂是AI模型在真实动能作战与特别情报行动中的深度隐蔽整合。
事件的焦点集中在五角大楼的旗舰级AI目标定位项目——Maven智能系统(Maven Smart System, MSS)上。Project Maven最初启动时仅仅是一个用于分析无人机视频流的基础计算机视觉项目,但在Palantir等承包商的推动下,它已经演变为美军跨安全域的核心人工智能目标定位与联合全域指挥控制(CJADC2)平台。根据披露的数据,截至2026年初,Maven系统拥有超过20,000名活跃军事用户,被广泛整合到跨越三个不同安全级别的35个作战和指挥工具中。
在这一系统中,Anthropic的Claude模型被用于处理海量的情报、监视和侦察(ISR)数据,进行多源情报融合,并为作战指挥官提供近乎实时的决策建议。据报道,在2026年1月美军针对委内瑞拉前总统尼古拉斯·马杜罗的高风险海外跨国抓捕行动中,国防部通过Palantir的合同,深度使用了Claude AI来协助进行行动规划、情报分析与战术推演。
这起由AI深度辅助的高风险军事行动被媒体曝光后,极大地刺激了Anthropic内部对技术可能被军方滥用的担忧。Anthropic的管理层开始向五角大楼质询其技术在马杜罗抓捕行动中的具体应用方式及合规性。
在五角大楼看来,一家私营科技初创公司竟然试图对主权国家的绝密军事行动进行事后“伦理审计”,这不仅是商业上的越界,更是对国家安全决策权和军事指挥链的严重僭越。军方高层对此感到极为震怒,认为这种询问本身就是一种“不可接受的傲慢”。
2.3 极限施压与决裂:海格塞斯的最后通牒
矛盾在2026年2月底达到了临界点。国防部长皮特·海格塞斯向Anthropic首席执行官达里奥·阿莫代下达了强硬的最后通牒,要求Anthropic在2月27日(周五)美国东部时间下午5:01之前,签署一份具有法律约束力的文件,彻底放弃所有关于监控和自主武器的保留条款,允许军方将Claude模型用于“一切合法目的”(All Lawful Purposes)。
五角大楼的逻辑建立在传统的主权至上论基础之上:军方辩称,国防部本身的运作已经受到美国宪法、战争法以及国内情报监控法律(如FISA)的严格约束。军方认为,这些现有的国家法律框架已经足以规范武器系统与情报收集行为,绝不需要一家私营科技企业通过其商业“服务条款”来对美国军队的行动行使额外的约束或“否决权”。国防部甚至提出了一种看似妥协的方案,即在合同中书面承认现有的关于监控和自主武器的联邦法律,但Anthropic的法律团队敏锐地发现,这种被称为“妥协”的文本中夹杂着复杂的法律术语(Legalese),实际上将允许军方在认为必要时“随意无视这些护栏”。
面对极限施压,达里奥·阿莫代做出了明确拒绝。他在周四的声明以及随后的CBS新闻独家采访中阐述了坚持“红线”的底层技术与伦理逻辑。阿莫代指出,AI技术的发展速度已经远远“领先于法律的制定”,当前的法律根本无法防范政府利用商业AI分析购买来的私人数据进行前所未有的深度监控。同时,关于全自动武器,阿莫代强调“技术的可靠性根本还没有达到要求”,将不可预测的神经网络接入致命武器系统,极有可能导致误杀无辜平民或友军的惨剧,且这种由机器做出的杀戮决定缺乏明确的人类问责机制。阿莫代直言不讳地表示:“与政府意见相左是世界上最具有美国精神的事情”(Disagreeing with the government is the most American thing in the world),并坚称Anthropic作为技术的创造者,比政府更有资格判断其模型能够安全可靠地完成哪些任务。
2.4 行政机器的全面碾压:总统禁令下达
随着周五下午5:01期限的临近,在Anthropic明确拒绝让步后,特朗普总统亲自介入,将这场合同纠纷升级为国家层面的政治事件。特朗普在其创立的社交媒体平台Truth Social上发布了极具煽动性的总统指令:
“Anthropic的左翼疯子们犯下了一个灾难性的错误,他们竟敢试图对战争部进行强买强卖,强迫军队服从他们的服务条款而不是我们的宪法。我们将决定我们国家的命运——而不是由一家对现实世界一无所知的、失控的激进左翼AI公司来决定。因此,我正在指示美国政府的每一个联邦机构,立即停止使用Anthropic的所有技术。我们不需要它,我们不想要它,并且永远不会再与他们开展业务!”
为了避免美军现有的情报分析系统瞬间瘫痪,特朗普给予了国防部等已经在机密网络中深度绑定Claude模型的机构六个月的“逐步淘汰期”(Phase-out Period),但同时威胁称,如果Anthropic在这个阶段不配合平稳过渡,他将动用“总统的全部权力”,让公司面临“重大的民事和刑事后果”。
以下表格系统梳理了特朗普政府在此次危机中对Anthropic实施的多层级惩罚机制及其战略意图:
| 惩罚措施层级 | 实施主体与具体行动 | 法律依据与政治意图 | 预期影响与后果 |
|---|---|---|---|
| 联邦全面禁令 | 总统特朗普指示所有联邦政府机构(包含非国防的文职部门)立即停止采购和使用Anthropic产品,GSA(美国联邦总务署)立即将其从采购清单中剔除。 | 依据行政首脑指令行事。意图通过切断庞大的联邦政府市场,对企业实施直接的经济扼杀与市场孤立。 | 直接切断Anthropic的巨额To-G政府收入来源,引发商业客户对其系统稳定性的担忧。 |
| 国家安全供应链风险指定 | 国防部长海格塞斯正式将Anthropic标记为“国家安全供应链风险”。 | 依据美国法典第10卷第3252条(10 USC 3252)。此举意在制造“连坐效应”,迫使所有希望维持军方合同的企业与其切割。 | 极具毁灭性。迫使如Palantir、亚马逊AWS等巨头必须审查其系统中是否包含Anthropic代码。通常仅针对华为等外国主体使用。 |
| 国防生产法(DPA)极限威慑 | 军方高层在闭门会议及后续公开表态中威胁,可能依据冷战时期的《国防生产法》,强行征用Claude模型并强行剥离其安全护栏。 | 依据1950年通过的《国防生产法》。意图将国家紧急状态的行政权力极度扩张至对私有智力资产的强行征用和篡改。 | 虽然在法理上面临巨大诉讼风险,但构成了对科技企业私有财产权和技术控制权的最严重威胁。 |
第三章 技术漏洞与伦理真空:Maven系统与杀伤链的极限压缩
要深刻理解Anthropic为何不惜冒着毁灭公司的风险也要死守“反自主武器”红线,以及五角大楼为何对这种红线感到如此狂怒,必须深入技术执行的底层逻辑——即五角大楼是如何通过官僚术语的文字游戏,在不触碰现有国际法和国防部指令底线的前提下,实质性地推动战争机器向全自动方向狂奔的。
3.1 杀伤链的压缩:从“小时级”到“秒级”的异化
在传统的动能战争中,杀伤链(Kill Chain,即发现、定位、跟踪、瞄准、交战、评估的完整闭环)高度依赖于人类指挥官的经验、分析和伦理判断。在2003年的“伊拉克自由行动”(Operation Iraqi Freedom)中,第18空降军的一个目标定位小组大约包含2000名人员,他们夜以继日地处理情报,以决定最终的打击目标。
然而,Maven智能系统的引入彻底颠覆了这一时间与人力的尺度。目前,同样在第18空降军中,一个仅由20人组成的AI辅助目标定位小组,就能够实现当年2000人才能达到的输出效率。更令人震惊的是,高级军官估计,在Maven系统的辅助下,他们可以实现每小时决定80个打击目标,而如果没有该系统则只能处理30个。
军方的野心远不止于此。随着技术的演进,五角大楼的终极愿望是让系统达到每小时生成并处理“一千个高质量决策”的能力。如果这一设想成为现实,意味着分配给每一个致命打击目标的人类核实、伦理评估与决策时间,将被极限压缩到仅仅3.6秒。在如此极端的战术时间流逝下,要求人类操作员保持所谓的“有意义的监督”或“伦理判断”纯粹是一种自欺欺人的幻想。人类大脑根本无法在3.6秒内对融合了无数雷达、红外、信号截获和地缘政治变量的AI推荐目标进行交叉验证,人类最终将不可避免地沦为算法的无脑执行者(Rubber Stamp)。
3.2 官僚系统的“半自主”谎言与意图潜变
正是为了掩盖这种人类控制力丧失的事实,美国国防部精心设计了一套制度性的掩护机制。管理自动武器的美国国防部第3000.09号指令(DoD Directive 3000.09)中,创造了一个极具欺骗性且被专家称为“五角大楼最有用谎言”的术语——“半自主”(Semi-autonomous)系统。
根据该指令的框架,只要一个系统在物理层面上不直接、自动地“选择并交战”(Select and Engage)目标,而是仅仅生成目标推荐清单供人类操作员采取行动,该系统就被分类为“决策支持工具”(Decision-Support Tool)而非武器。因为它不属于全自动武器,所以它可以完美地绕过国防部政策副部长或参谋长联席会议副主席等高层必须进行的、极其严苛的安全与伦理特别审查流程。这使得前线指挥官和项目经理能够极其顺滑地采购和部署这类AI系统。
更严重的是,该指令虽然要求对这类系统施加“适当水平的人类判断”(Appropriate levels of human judgment),但通篇并未定义何为“适当”,也没有设定任何可测量的客观指标。参与修订该指令的核心专家迈克尔·霍洛维茨(Michael Horowitz)曾直言不讳地承认,该指令在行文中故意省略了“必须有人类在回路中(Human-in-the-loop)”这一要求。
研究机构如Perry World House和斯德哥尔摩国际和平研究所(SIPRI)严厉警告了这种现象,将其称为“意图潜变”(Intention Creep)。Maven系统最初只是作为一个纯粹的视频像素分析工具被引入,但随着时间的推移和不断地战术实验,它被悄无声息地重新利用(Repurposed)为直接指导杀伤链的核心定位工具。当一个AI系统除了最后按下导弹发射按钮的物理动作之外,实质上接管了情报分析、目标提取、威胁优先级排序等所有前端“认知决策”环节时,它实质上已经构成了完整的杀戮闭环。
Anthropic正是因为深刻洞察了这层官僚主义的伪装,认识到其前沿模型一旦以“决策支持工具”的名义被广泛整合进Maven等作战网络,就不可避免地会被实质性地用于决定敌我生死的致命环节。在模型不可靠性和幻觉未解决的当下,坚守反自主武器的红线,不仅是对企业道德准则的捍卫,更是为了避免其技术成为未来可能的战争罪行或平民屠杀的直接帮凶。
第四章 法律与政治工具的极限测试:数字资产与冷战思维的错位
特朗普政府在此次禁令中所动用的行政工具,特别是《国防生产法》(DPA)的威胁以及“国家安全供应链风险”的定性,暴露出传统工业时代的法律框架在应对高度抽象化、非物质化的AI算法资产时的严重错位与法律瑕疵。
4.1 供应链风险标签的滥用与“布鲁塞尔效应”的变体
国防部长海格塞斯动用《美国法典》第10卷第3252条(10 USC 3252),将Anthropic定性为“国家安全供应链风险”。这一标签在历史上具有极其特殊的政治意味。过去,该条款通常被美国政府用作地缘政治武器,专门用来制裁和封杀那些与外国敌对势力存在深厚联系的实体,最为著名的案例便是针对华为等中国通信巨头的系统性绞杀。
将这一原本用于抵御外部间谍活动和硬件后门的法律武器,史无前例地直接动用于一家完全由美国本土资本投资、美国公民运营,并且代表了美国最前沿核心科技竞争力的本土初创企业身上,不仅在法律上站不住脚,更在商业界引发了巨大的寒蝉效应。Anthropic在反击声明中明确指出,这一举措是“前所未有”且“在法律上站不住脚的”。
从法理上看,第10卷3252条的适用范围严格受限。Anthropic指出,即便该定性正式生效,其法律效力也仅限于禁止将Claude模型用于“国防部的合同工作”之中。海格塞斯根本不具备法定的权力,去禁止那些与军方有业务往来的联邦承包商(如拥有庞大商业云生态的亚马逊AWS或微软Azure)在其服务非政府的普通商业客户或个人用户时使用Anthropic的技术。如果五角大楼试图将禁令强行扩大化,要求所有国防承包商在整个公司层面彻底剥离Anthropic的产品(据称Claude是目前绝大多数政府程序员编写代码的首选工具),这将引发美国国防工业基础系统级别的巨大混乱。正如一名前高级国防官员所警告的,进行这样一次全系统的清查和剥离,“结果绝不会好”,且会给美国的国防现代化进程造成严重倒退。
4.2 强征算法?《国防生产法》的时代错置
更具戏剧性和法理争议的是,五角大楼在谈判破裂前夕威胁动用《国防生产法》(Defense Production Act, DPA)来迫使Anthropic就范。
《国防生产法》是1950年哈里·杜鲁门总统在朝鲜战争爆发初期签署的冷战产物,其核心条款赋予了美国总统在面临国家紧急状态时,迫使私营企业优先接受和执行政府合同的权力,以确保军事物资的充足供应22。在历史上,从克林顿政府解决加州能源危机,到拜登政府应对新冠疫情期间的疫苗生产和婴儿配方奶粉短缺,DPA一直被用于调控物理资源的生产和分配。
然而,试图用管理钢铁、煤炭和口罩的工业时代法律,来强行征用和篡改21世纪的大型人工智能模型,暴露出美国行政机构对现代AI技术本质的极度无知。AI基础模型绝非一条可以被军方派兵接管并强行开动机器运转的物理生产线。前沿AI的强大能力,建立在其极其脆弱和动态的神经网络权重、持续的强化学习、海量专有训练数据以及最顶尖科学家的隐性知识之上。
如果军方利用DPA强行剥离Claude模型内置的安全对齐(Safety Alignment)护栏,这实际上等同于强制要求私营企业的顶尖科学家违背自身意愿,去编写可能导致致命后果的代码。这不仅严重侵犯了《宪法第一修正案》保障的言论自由(代码即言论),更构成了对私有智力财产权的粗暴践踏。不仅如此,缺乏Anthropic核心技术团队持续进行的模型架构更新和对抗性漏洞修补,被军方强行“绑架”的AI模型在面对复杂电子战和对抗性攻击时,其性能将迅速退化,从所谓的“战略资产”沦为充满漏洞的安全隐患。
4.3 竞争对手的“表演性服从”与虚伪的红线
如果说五角大楼的举动仅仅是为了获取“不受限制的AI工具”,那么接下来发生的事情则彻底撕破了这一伪装。在Anthropic遭到禁令封杀后短短数小时内,其最大的竞争对手、ChatGPT的母公司OpenAI火速宣布,已与五角大楼达成一项重大协议,将全面接管Anthropic留下的机密网络AI部署份额3。早在2024年初,OpenAI就已经悄然从其使用条款中删除了全面禁止将其技术用于军事和战争用途的禁令,为争取庞大的国防预算铺平了道路。
极其讽刺的是,OpenAI首席执行官萨姆·奥特曼在宣布合作时,高调宣称OpenAI在新协议中同样保留了与Anthropic完全一致的“安全红线”——即禁止将模型用于国内大规模监控,并强调在武力使用特别是自主武器方面必须保留人类责任。奥特曼甚至强调,五角大楼“同意这些原则,并在法律和政策中反映了它们”。
这种令人咋舌的“双重标准”,使得特朗普政府的逻辑在外界看来显得极度错乱:五角大楼对坚持安全护栏的Anthropic痛下杀手,动用国家机器的雷霆之力将其定性为危害国家安全的供应链风险;转头却又欣然接受了另一家科技巨头OpenAI提出的完全相同的限制条款。
这种表面上的荒谬,实则揭示了隐藏在危机深处的权力本质:这场博弈的核心根本不在于那些具体的技术护栏条款(毕竟军方也声称目前并未将AI用于监控美国人或部署杀人机器人),而在于“谁有资格坐在谈判桌前发号施令,以及由谁来制定规则”。五角大楼可以接受技术的局限性,但这种局限性必须是以美国政府的名义、作为主权恩赐而被确认的;它绝不容忍一家私营科技公司试图通过商业“服务条款”的单方面意志,对拥有世界上最强大武力的美国军队进行“反向约束”或“伦理强推”。Anthropic的罪名并非其技术不能打仗,而是其表现出了独立的“认知意志”和挑战国家指挥链权威的傲慢姿态,这触碰了国家暴力垄断机构的绝对逆鳞。
民主党参议员、参议院情报委员会副主席马克·沃纳(Mark Warner)对政府的行为发出了严厉的谴责。他指出,总统和国防部长这种带有极强政治色彩的“霸凌”行为,不仅可能是一个为了将巨额政府合同输送给“偏好供应商”(Preferred Vendor,暗指与政府关系更为圆滑的OpenAI或xAI)的幌子,更暴露出国家安全决策正在被极端的政治情绪所劫持。
第五章 权力结构的纪元级重塑:从“暴力垄断”到“智力垄断”
跨越琐碎的政治喧嚣和合同细节,特朗普政府与Anthropic的直接对抗,在全球政治理论和国际关系史上具有标志性的意义。它预示着人类社会自《威斯特伐利亚和约》以来稳固运转的权力结构,正在经历一次纪元级的重塑。传统的“主权力量”(Sovereign Power)正遭遇“智力力量”(Intelligence Power)和“数字主权”(Digital Sovereignty)的前所未有的解构与挑战。
5.1 国家暴力的传统垄断与工业时代的权力服从
德国社会学家马克斯·韦伯在20世纪初对现代国家做出了最为经典的定义:国家是“在一个特定领土内,唯一成功声称拥有合法使用物理暴力垄断权(Monopoly on the legitimate use of physical violence)的人类共同体”。在这一经典框架下,无论是通过征税维系官僚运转,还是通过警察维持内部秩序,亦或是通过军队抵御外敌,政府最高且唯一的权力来源,就是其对动能武器和暴力机器的绝对控制。
在整个工业时代乃至冷战时期,技术的演进从未真正脱离过国家暴力的掌控,反而往往是由国家机器直接主导和孵化的。从曼哈顿计划(原子弹)到阿波罗登月,再到互联网的前身ARPANET,国家不仅是最大的出资方,更是研发方向的绝对掌控者。在当时的军工复合体(Military-Industrial Complex)生态中,诸如波音、洛克希德·马丁等防务巨头,仅仅是执行国家意志的物理延展工具。我们无法想象在20世纪60年代,一家生产F-4战斗机的军工企业,敢于以“企业道德”为由,在交货的战斗机雷达系统中植入代码,限制美国空军在越南战场的轰炸目标选择。在工业逻辑下,资本与技术无条件服从于拥有合法暴力的国家主权。
5.2 大模型商的崛起:作为新型“数字利维坦”的认知主权
然而,人工智能,特别是生成式AI和基础语言模型的发展轨迹,彻底偏离了传统的国家主导模式。这一波深刻改变人类认知与生产力形态的技术革命,是由极少数总部位于硅谷、不受传统地域政治约束的科技巨头主导的。
现代大型AI模型的训练动辄需要数百亿美元的资本投入,需要汇聚全球最顶尖的数千名算法天才,并消耗相当于中等国家用电量的庞大能源。这种极高的门槛导致了实质上的“智力寡头垄断”。更关键的是,这些模型的核心资产是高度复杂的数学权重和海量的无结构数据,它们不像航空母舰或核弹头那样可以在地理上被精确追踪、监管或轻易复制。
这就催生了当代政治经济学中一个全新的概念——“数字主权”与“企业主权”(Corporate Sovereignty)。科技巨头们早已不再是提供基础软件的供应商,它们正在演变成为拥有数万亿美元市值、经济体量超越世界上大多数民族国家的“准国家实体”(Quasi-Nation-States)。它们通过编写代码、设定算法过滤规则和决定模型的价值对齐方向,实际上是在颁布全人类在数字时代的“赛博法律”。当Anthropic在Claude模型的底层架构中硬编码“不得协助从事间谍活动”或“不参与监控”时,它实质上是在自己的数字领土上行使着某种排他性的最高治权。
| 权力维度对比 | 传统主权国家(以美国五角大楼为代表) | 算法智力寡头(以Anthropic/OpenAI为代表) | 权力博弈特征 |
|---|---|---|---|
| 核心权力来源 | 领土控制;合法暴力的垄断(军队、核武器、监狱)。 | 算力积累;专有数据垄断;顶尖算法人才的智力密集。 | 物理动能系统高度依赖认知系统的神经传导,暴力受制于智力。 |
| 管辖范围与边界 | 受到明确的地理国界限制;受制于繁琐的国内立法与国际法条约。 | 跨越国界的全球化数字网络;通过云基础设施实现无处不在的超领土覆盖。 | 数字主权的“超地域性”对传统地缘政治边界形成降维打击。 |
| 规则制定与执行机制 | 议会立法;法院判决;行政官僚机构执行;耗时漫长。 | 代码即法律(Code is Law);API接口限制;服务条款单方面阻断;瞬间执行。 | 算法黑箱导致国家无法有效审查和审计AI底层的逻辑。 |
| 合法性依据 | 民主选举程序;宪法授权;社会契约。 | 技术专业主义(Epistocracy);“有效利他主义”等企业自发设定的普世道德准则。 | 民主授权遭遇精英技术垄断的挑战,导致深层政治危机。 |
5.3 权力的倒转:没有“智力”的“暴力”沦为废铁
之所以Anthropic能够让世界上最强大的军事机器感到如此受到威胁,是因为在现代战争与大国竞争中,“军事权力”正在不可逆转地从属于“智力权力”(Intelligence Power)。
自古以来,密码学和对通信媒介的秘密控制一直是主权权力的标志(例如二战期间的图灵破解恩尼格玛机)。在当下,掌握最强的大模型,就意味着掌握了对海量开源情报(OSINT)的瞬间解读能力、对敌方电磁频谱干扰模式的预测能力、以及对全球舆论场叙事矩阵的生成与操控能力。
正如前文对Maven系统的分析所指出的,现代军事传感器网络每天生成的数据量已经完全超出了人类生理的承载极限。如果在未来的台海冲突或东欧战场上,一方的美军依然依赖人类参谋耗时数天去人工比对卫星图像来寻找导弹发射车,而另一方的军队则能够依赖AI大模型在一秒钟内完成目标识别、火力分配和毁伤评估,那么前者即便拥有再多的航空母舰和F-35战机,也毫无胜算。
这种对算法分析能力的绝对依赖,导致了暴力与智力关系的本质倒转。在AI时代,国家机器依然握着那把最具破坏力的“枪”,但扣动扳机的“眼睛”和“大脑”却外包给了硅谷的科技巨头。如果Anthropic或类似的大模型提供商突然拔掉API的插头,或者在底层权重中悄悄加入限制致命武器运算的补丁,整个国家引以为傲的CJADC2(联合全域指挥控制系统)瞬间就会变成一堆废铁与瞎子。正是这种对国家核心防御能力的底层剥夺感,让特朗普政府不顾一切地发起了这场带有明显报复性质的惩罚行动。
第六章 算法统治与民主体制的深层政治张力
在这场权力的重新洗牌中,另一个不可忽视的理论维度是人工智能技术对传统西方自由民主体制(Liberal Democracy)的巨大冲击。
6.1 算法统治(Algocracy)与技术官僚的狂妄
政治理论家指出,将AI整合入公共事务和国家安全领域,催生了一种被称为“算法统治”或“认识论精英统治”(Epistocracy)的现象。在这种形态下,决策权力不再来源于人民的选举,而是集中在掌握复杂数据和神秘知识的少数精英(即代码编写者和模型训练师)手中。
在Anthropic的案例中,达里奥·阿莫代及公司的顶尖科学家群体,实际上就扮演了这种“认识论精英”的角色。他们比世界上任何五角大楼的四星上将都更深刻地理解Transformer架构中“注意力机制”的脆弱性,更清楚多模态模型在复杂战场环境中发生致命“幻觉”的概率分布。基于这种智力上的降维打击,硅谷的技术精英自然而然地产生了一种道德优越感——他们认为自己比腐朽、迟缓且往往被短视的选举利益驱使的华盛顿政客,更有资格决定足以毁灭人类的技术应当如何被使用。
然而,这构成了对民主代议制的根本性解构。诚然,正如学者研究指出的,AI可以在解决极其复杂的系统性问题上超越人类,但当涉及政治和战争这种具有高度价值判断和生死攸关性质的领域时,缺乏民主合法性的技术精英不应享有独裁式的决定权。国防部长海格塞斯在斥责Anthropic时所用的“狂妄自大”(Arrogance)、“带有上帝情结”(God-complex)等词汇,恰恰反映了传统政治权威对这种缺乏民主问责的精英权力的本能恐惧与反感。在政府看来,让一小群没有经过选民投票考验、不受宪法宣誓约束的技术极客,通过修改几行参数来否决民选政府的军事决策,这是走向寡头暴政的开始。
6.2 生命周期控制:从微观治理到剥夺生命权
从法国哲学家米歇尔·福柯(Michel Foucault)的“生命政治学”(Biopower)和意大利哲学家乔治·阿甘本(Giorgio Agamben)的“例外状态”(State of Exception)理论视角来看,这场争夺具有更为隐秘的黑暗色彩。
福柯认为,现代国家的权力体现为其对人口生命的管理和控制(使人活,或任人死)。传统上,国家通过公共卫生、福利制度以及暴力机关来实现这种治理。而在监控资本主义(Surveillance Capitalism)与AI技术的结合下,科技巨头实际上已经接管了这种微观层面的生命治理权力。它们比国家更了解公民的偏好、行踪甚至潜意识思想。
Anthropic反对将AI用于美国公民的大规模国内监控,表面上是在抗拒国家暴力的滥用,实质上也是在捍卫其自身作为“数字封建领主”对其产生的数据资产和领地的独占性控制权。在这个意义上,这场冲突可以被视为新兴的数据领主与试图将其权力边界重新国有化的传统国王之间的一场地盘争夺战。
更进一步,阿甘本的理论强调,主权者的真正标志是拥有宣布“例外状态”并剥夺个人生命而无需承担司法谋杀罪责的权力。五角大楼将AI引入杀伤链和自主武器系统,本质上是为了在战争这种终极的例外状态中,将杀戮的伦理负担外包给算法黑箱。通过算法进行自动化的目标锁定和消灭,国家机器试图在大幅提高杀人效率的同时,完美地规避由于误杀平民而带来的国际法问责和国内政治反弹。因为如果算法犯了错,那只是“技术故障”,而不是战争罪行。Anthropic拒绝提供没有限制的AI,等于是拒绝为国家暴力机器的这种生命剥夺行为提供“道德洗白”和技术豁免权,这深深刺痛了主权者的神经。
第七章 未来局势展望:主权AI的崛起与新冷战的算法铁幕
特朗普政府对Anthropic的无情清洗,绝非一时兴起的政治表演,它标志着人类社会正式进入了一个大国将以最高国家安全级别全面介入人工智能产业链的新纪元。此事件将引发一系列无法逆转的地缘战略余震。
7.1 “主权AI”(Sovereign AI)成为全球战略共识
Anthropic事件向全球所有国家——无论是美国的盟友还是竞争对手——传递了一个冰冷而清晰的信号:将国家的核心认知基础设施、关键军事分析与情报监控网络,托管于那些由不受控的私营资本驱动、且坚持自身独立道德哲学的跨国科技巨头手中,构成了不可接受的战略自杀。
英伟达首席执行官黄仁勋近期关于“主权AI”的论述正在迅速成为全球共识。他指出,人工智能工厂(AI Factories)将成为21世纪的炼油厂。在未来,世界上没有任何一个有野心的大国能够承担起将自己的国民数据和政府机密出口给硅谷的私营公司,然后再把“智能分析结果”进口回来的致命风险。
在这一逻辑的驱动下,未来五年内全球资源配置将发生剧烈转移。从欧洲、中东到亚洲,各国政府将效仿当年建立本国钢铁工业和核武库的决心,投入海量公共资金建设完全由国家绝对控制的“认知炼油厂”。他们将不遗余力地基于本国数据、运用符合本国政治价值观的对齐规则,训练彻底摆脱美国科技公司(如OpenAI或Anthropic)制约的国家级大模型。
7.2 技术集权化与军工复合体的重塑
在美国国内,Anthropic的遭遇加速了人工智能产业内部的政治极化与大洗牌。政府的强硬手腕表明,在新的冷战思维和大国竞争的紧迫感下,华盛顿越来越无法容忍硅谷那些“小资式的”伦理洁癖。这实际上设立了一个新的隐性准入门槛:未来想要分得美国国防部数万亿预算蛋糕的企业,必须进行绝对的“意识形态宣誓效忠”和无条件的技术服从。
例如,埃隆·马斯克旗下的xAI已经成为了唯一一家在军用与民用系统中均毫无保留地接受军方“一切合法使用”条款的前沿模型开发商。与之相反,就在危机爆发前后,由于不满科技公司逐渐沦为国家战争机器的附庸,超过100名谷歌员工联名要求管理层采取与Anthropic同样的“红线”立场,而OpenAI内部也出现了类似的抗议声浪。
这些抗议虽然激烈,但在国家强制力的碾压下显得苍白无力。未来的美国军工复合体将彻底吞噬并同化AI产业。国防部将不再满足于购买商用的API接口,而是会通过类似修改后的《国防生产法》、设立必须具有高级安全许可才能参与的核心攻关项目等手段,强行将最先进的算力集群和部分核心研发人员纳入“国家保密网”内进行物理隔离开发,从而在根本上阻断“企业服务条款”干涉国家安全决策的可能性。
第八章 结论
2026年2月特朗普政府通过行政指令及供应链制裁手段对Anthropic实施的全面封杀,注定将作为人工智能政治学的一个标志性事件被载入史册。它残酷而彻底地撕下了长期以来围绕在科技巨头与西方民主政府之间关于“创新驱动”与“军民融合”的温情面纱,将AI时代权力重构的深层裂痕赤裸裸地暴露在世人面前。
这是一场源于控制权焦虑的全面摊牌。在这场对抗中,以五角大楼为代表的传统国家主权——建立在对合法物理暴力的垄断之上——试图以极其粗暴甚至带有滥用法律嫌疑的行政威慑(如动用《国防生产法》应对非实体资产),强行征用和驯化新技术,以维持其在国际体系中的暴力威慑力。而以Anthropic为代表的新兴“认知主权”实体,则试图凭借其在复杂神经网络、大模型推理以及数学算法领域的绝对技术壁垒,以设定道德红线和限制API调用的方式,反向约束和审查这个星球上最具破坏力的战争机器。
尽管凭借着冷战时代遗留的行政工具、庞大的政府预算诱惑以及通过排挤竞争对手实现利益分化的策略(如OpenAI的火速上位),特朗普政府在战术上取得了对Anthropic的绝对碾压,但这种短期的政治胜利并不能掩盖深层的结构性危机。
在不远的将来,当现代动能战争的杀伤链被极限压缩,当大国之间核威慑的预警与反应时间越来越超脱人类的生理极限,国家的军事权力(Military Power)将不可逆转地被彻底寄生于算法驱动的智力权力(Intelligence Power)之上。传统的主权国家机器,要么彻底沦为一个仅负责提供电力算力和按下确认按钮的盲目躯壳,要么为了夺回控制权,不得不走向极端的技术民族主义和对内部科技资产的全面铁腕国有化。在这场刚刚拉开帷幕的数字利维坦与传统主权国家的宿命对决中,无论哪一方取得最终的支配地位,自由主义的政治架构和传统的权力制衡原则,都将面临一次最为严峻且生死攸关的考验。