两场震惊世界的军事行动,背后都是同一套AI系统,ai军事应用是一把双刃剑阅读答案
时间: 2026-03-04 00:08作者: 在南方的毛豆2026年刚开场两个月,美军就开展了两场军事行动,它们不仅是地缘政治的惊天剧变,更是人类战争史上的技术分水岭,因为在这些势如破竹的军事行动背后,都有AI技术参与其中。
在过往的战争中,“观察、调整、决策、行动”的军事决策体系受限于人类的处理速度,往往需要数小时甚至数天。而在AI驱动的算法战争中,这个周期正在被压缩到数秒甚至数毫秒。
当一方的决策时钟运行在人类速度,而另一方运行在机器速度,两者之间的对抗,胜负在开局时便已注定。
撰文 | REN
2026年刚刚过去两个月,我们就已经目睹了足以改写世界格局的两件大事。
1月3日,美国陆军特种部队从海面超低空飞入加拉加斯,在三小时内抓走了委内瑞拉总统尼古拉斯·马杜罗(Nicolás Maduro)。
2月28日,美国和以色列联合发动代号“史诗狂怒”(Operation Epic Fury)的大规模空袭,将伊朗最高领袖哈梅内伊(Ayatollah Ali Khamenei)炸死,并消灭了约40名伊朗政府核心高层。
这两场行动不仅是地缘政治的惊天剧变,更是人类战争史上的技术分水岭,因为在这些势如破竹的军事行动背后,都有同一套AI系统参与其中。
与此同时,一场因AI军事化而在华盛顿与硅谷之间爆发的权力博弈,也在同一周内到达了高潮:AI初创公司Anthropic,在拒绝为五角大楼移除AI技术安全护栏之后,被特朗普政府以一个通常用于制裁他国实体的法律条款列为“国家安全供应链风险”,并被驱逐出美国的军事生态系统。
这一切合在一起,构成了本世纪迄今为止关于AI与人类命运最重要的一幅图景。
从实验室到战场
要理解当下正在发生的一切,有必要先回顾AI是如何进入美国军方视野的。
AI在军事上的应用并非横空出世。早在2017年,美国国防部便启动了一个名为算法战跨职能小组(Algorithmic Warfare Cross-Functional Team)的项目,对外称为Project Maven。项目的初衷很简单,就是用深度学习神经网络帮助人类区分哪些无人机画面里有车辆、有武装人员,替代每天盯着屏幕大海捞针的情报分析员。
然而,当谷歌公司因旗下工程师集体抗议,而于2018年宣布不再续签Maven合同时,这一举动与其说阻止了AI军事化,不如说是揭开了科技行业与军工复合体之间注定要爆开的裂缝。
彼时的许多人恐怕没有料到,短短八年之后,AI工具不再只是分析无人机视频,而是已经作为核心决策支撑工具,进入了美国军方最机密的网络,直接参与了牵涉多个国家、成千上百条人命的高价值军事行动。
这中间发生了什么?答案是大语言模型(Large Language Model)的崛起。
Project Maven在这种技术革命中迅速完成了质的升级。美国国防承包商Booz Allen Hamilton主导了将大模型深度集成到Maven系统的关键工作;英国公司Anduril与美国公司Palantir建立了合作伙伴关系,将Anduril的Lattice Mesh战场感知网络与Maven的智能系统及Palantir的AI平台打通,实现战术传感器数据向AI支持的分析师工作流的无缝转移。
在这套高度集成的体系下,从卫星图像到信号情报,再到地面传感器的一切数据,都可以被自动汇聚、过滤、关联,最终生成可以直接供指挥官使用的目标建议。
美国国家地理空间情报局对Maven项目的介绍(机翻)| 图源:NGA官网
据报道,这一系统使得一名高级指挥官每小时能做出80个目标打击决策,这个数字在非AI时代只有每小时30个,现在效率直接翻倍。负责Maven项目的美国国家地理空间情报局(NGA)甚至规划,到2026年6月,Maven系统将开始向作战指挥官直接传输“100%由机器生成”的情报。
但即便在这个背景下,AI技术在军事领域的应用速度仍令行业人士震惊。2024年6月,Anthropic公司开发的Claude,成为了第一个被部署在五角大楼机密网络上的商业大语言模型。
这道闸门一旦打开,便再也无法关上。
两场军事行动,同一套AI技术
时间快进到2026年1月3日凌晨,美国陆军第160特种作战航空团的直升机,从距离委内瑞拉海岸线超低空掠过海面,悄无声息地进入了加拉加斯上空。
短短三小时后,委内瑞拉总统马杜罗和他的妻子西莉亚·弗洛雷斯(Cilia Flores)就已经被美军突击队员抓住,押上了去往纽约的飞机。
2月28日,美国又联合以色列发起了代号“史诗狂怒”的军事行动,目标直指包括哈梅内伊在内的伊朗领导层:美以情报人员掌握了他将于当天上午在德黑兰办公室与核心幕僚召开会议的内幕。
最终结果我们已经知道了。哈梅内伊被炸死,他的女儿、女婿和孙子也同时丧命。与此同时,伊朗国防部长阿齐兹·纳西尔扎德赫(Aziz Nasirzadeh)、伊斯兰革命卫队司令穆罕默德·帕克普尔(Mohammad Pakpour)、最高国家安全委员会秘书长阿里·沙赫马尼(Ali Shamkhani)等40名核心领导人都被确认死亡。
这两场军事行动离不开AI技术的助力。经多家媒体报道,美国军方的AI技术来自一套以Palantir公司AI平台为载体、以Anthropic Claude大模型为认知引擎的情报分析系统。
据知情人士透露,Claude是通过Palantir与美国国防部的合作关系,被集成进了军事行动的情报链条。不过,有的Anthropic员工甚至要在行动结束后,专门向Palantir方面询问Claude究竟扮演了什么具体角色。这个行为就很耐人寻味了。
此外,以色列去年6月空袭伊朗时,也使用了AI技术,用途包括截获通信、掌握敌方动向、加速情报和数据的梳理速度,以及加快识别高价值潜在打击目标等等。
必须要强调的是,美国从未公开过Claude等AI技术在行动中执行的具体任务,只是笼统地透露过其用途包括情报评估、目标识别和战斗场景模拟。目前的报道大多在引用知情人士的消息和专家的评论。
在这里我们不妨合理推测,AI承担的很可能是以下几类工作:整合并分析来自当地潜伏线人、无人侦察机、通信截获和卫星图像等多渠道情报,完成对打击目标生活规律的建模;同时对当地防空网络的雷达盲区与最佳突入路线进行推演;以及在行动前对各种突袭路径下敌方可能的反应进行快速模拟。
当然,军事打击的最终目标和指令一定是由人类下达的。我们对AI能力的认知不能过分神化。
美军普及AI的新范式
着眼未来,要更深入地理解AI在美国军事行动中扮演的角色,需要将视野拉高到整个美军AI生态系统的层面。
简单来说,在经典“OODA循环”(观察、调整、决策、行动)的军事理论框架中,决策体系可以被理解为一条“感知-认知-行动”链条。美军正在做的就是把AI融入链条中的每个环节。这方面的公开资料少且模糊,但我们可以从曝光度较高的Maven项目管中窥豹。
首先在感知层,美国太空军运营着三套互相配合的星基系统:地球同步太空态势感知计划(GSSAP)卫星星座、地基光学传感器系统(GBOSS)以及深空高级雷达能力(DARC),理论上能够对全球范围内的地面目标和轨道目标进行持续监视。
在AI战略上,美国太空军在2024和2025连续两年发布“数据人工智能战略行动计划”,将AI纳入其全军数据战略框架,强调AI与数据技术必须融入太空作战与空间监视体系,用于“处理海量传感器数据并快速输出高价值信息”。
具体目标包括:
提升太空军人员的AI素养,将AI相关知识纳入教育与训练体系;测试和评估大模型、机器学习算法和AI工具在太空操作支持、实时洞察推送与情报工作中的效果;强化数据架构与AI平台的互操作性,缩短从数据采集到决策支持的周期;用AI处理卫星监测、空间碎片跟踪与轨道目标辨识,提升综合态势能力。
在认知层面,这些传感器采集到的海量原始数据,随后通过Anduril公司的Lattice Mesh战场感知网络进行实时汇聚与初步过滤。Lattice Mesh是一套分布式的机器学习平台,专为在高度对抗的电磁环境下维持战场态势感知而设计,即使部分节点被摧毁或干扰,系统仍能保持整体运转。
处理后的结构化战场数据随后进入Palantir的AI平台(AIP),这套平台专门为将人类可读的情报内容与机器处理能力结合而设计,是美国军方和联邦执法机构使用最广泛的数据分析工具之一。在AIP的界面上,Claude等大模型可以被直接调用,将数据转化为情报分析员或指挥官能够直接行动的语义化输出——无论是目标特征描述、打击路径推演,还是敌方反应模拟。
在整条管道的最顶端是Maven智能系统。Maven运行于亚马逊AWS云服务之上,并集成了Claude。这套系统能够自动执行军事杀伤链中的识别、定位、过滤和目标优先排序等关键步骤,并已经在现实行动中得到验证:美军已用它在红海等区域识别并引导打击火箭炮发射器和水上舰艇。按照美军的设想,整个链条最终应当实现从卫星图像到目标打击建议的全自动流水线作业,人类的干预只是在最终授权环节点头或摇头。
这种技术体系的军事意义,不只是效率的提升,而是认知维度的降维打击。传统战争中,OODA循环周期受限于人类的处理速度,往往需要数小时甚至数天。而在AI驱动的算法战争中,这个周期正在被压缩到数秒甚至数毫秒。
当一方的决策时钟运行在人类速度,而另一方运行在机器速度,两者之间的对抗,胜负在开局时便已注定。
政府VS企业,AI军事化的博弈
当AI在中东和南美的战场上大显身手的时候,美国国内却爆发了一场可能改变整个AI科技行业格局的剧烈博弈。
这场风波的核心文件,是五角大楼与Anthropic签署合同时坚持要求写入的一项条款,要求AI模型被用于所有合法用途(all lawful purposes)。Anthropic的首席执行官达里奥·阿莫代(Dario Amodei)则认为,这是一个极其危险的法律漏洞。
Anthropic是一家由前OpenAI核心研究人员在2021年创立的AI公司,在行业内以其对AI安全问题的严肃态度著称。该公司发展出了一套名为宪法AI(Constitutional AI)的训练方法,并在其模型的使用协议中明确设置了两条不可逾越的红线:第一,禁止将Claude用于对美国公民的大规模国内监控;第二,禁止将Claude用于无需人类干预的完全自主致命武器系统。
对于这两条限制,五角大楼的回应是:大规模监控和自主武器已经受到现行法律和内部政策的约束,根本没有必要在商业合同中再额外加上这些条款,Anthropic只需要信任军方,按照法律行事就够了。
但达里奥反驳称,现有的隐私法律是在AI具备同时监控数百万人的能力之前制定的。以一个具体的场景为例:政府完全可以从合法的商业数据代理商那里批量购买包含数亿美国公民地理位置、网页浏览记录和个人金融信息的数据集,然后利用AI进行大规模交叉分析。
这种做法在现行法律框架下并不构成非法国内监控,因为数据来自合法渠道,分析行为本身没有违法,但其实际效果却等同于大规模监控。
在媒体披露的另一段对话中,一位五角大楼官员先是提出了一个极端假设:若军方需借助Claude系统拦截携带核弹头的洲际弹道导弹,Anthropic是否会授权?而达里奥的回答是:你们可以打电话给我们,我们跟你一起想办法。
这显然不是政府能接受的答案。
面对达里奥和Anthropic的不配合,美国总统特朗普和国防部长海格塞斯采取了极其强硬的手段。他们不仅下令全联邦机构停用Claude,切断其价值数亿美元的合同,更破天荒地将这家美国本土明星AI企业列为供应链风险(通常用于制裁敌对国家的实体),甚至威胁动用《国防生产法》(DPA)强制征用其技术。
就在特朗普政府全面封杀Anthropic之际,OpenAI首席执行官山姆·奥特曼(Sam Altman)迅速介入,宣布接手价值数亿美元的五角大楼合同。
为了平息舆论的不满并建立信任,OpenAI公布了部分合同细节。
OpenAI声称其同样划定了三条红线:无美国国内监控、无自主武器系统、无自动化高风险决策。然而,核心的妥协在于,OpenAI全面接受了导致Anthropic退出的那项条款——允许五角大楼将模型用于所有合法用途。
OpenAI辩称,其纯云端架构天然排除了完全自主武器的可能性,因为此类武器系统通常需要边缘部署,而非依赖云端服务器连接。同时,它依赖于国防部现有的法律规定来约束行为。
简而言之就是,Anthropic不相信军方会守法,但OpenAI相信。
这一立场在行业内部引发了尖锐的批评。800多名谷歌和OpenAI员工联署了一封以“我们不应被分裂”(We Will Not Be Divided)为题的公开信,批评公司管理层的决定。
有意思的是,埃隆·马斯克(Elon Musk)的xAI也在差不多的时间点与五角大楼签署协议,允许机密军事系统使用其Grok模型,也就是说它也同意了“所有合法用途”条款,但招来的舆论风暴比OpenAI更小。
AI的奥本海默时刻
2022年底ChatGPT横空出世后,关于AI军事化的讨论也逐渐增多,但大多都是学术界和科技论坛上。直到今天,我们终于在更大的舆论场上见到了公众对它的讨论。
在所有关于AI军事化的讨论中,有一个问题总是被淹没在具体技术细节和地缘政治分析的洪流里,却也许是最根本的那一个:当AI系统在“黑箱”中生成目标特征、计算威胁分数、建议打击方案,而连操作它的军方官员也无法理解其逻辑链条时,“责任”这个词,意味着什么?
罗伯特·奥本海默(Robert Oppenheimer)在回忆1945年“三位一体”核试验时,引用了《薄伽梵歌》的经文:“我现在成了死神,世界的毁灭者。”核武器重新定义了20世纪的战争边界,而AI武器正在以另一种方式重新定义21世纪的战争本质:杀戮的机械化与非人性化。
当AI系统从一个人的手机使用习惯、社交网络行为和地理轨迹中提取出“武装分子特征指数”,并将打出的分数与无人机上的武器系统直接相连,整个过程在数秒内完成,而人类的干预只是在一个倒计时读数里点击一个按钮——这还是人类在做决定吗?当训练数据中固有的偏见导致系统将某一特定外貌特征或行为模式的人群赋予更高的威胁分数,而这种偏见在黑箱中不可见,在短暂的决策窗口内不可察,这场战争还是人类的战争吗?
Anthropic因为提出这些问题并坚持将其写入合同,被驱逐出了美国的军事体系;OpenAI和xAI因为接受了“所有合法用途”的框架,接管了这份权力,同时接管了这份责任的空白。
在更名为美国战争部的机构手中,我们不清楚AI大模型会变成什么样子,但AI的“奥本海默时刻”真的到来了。
参考资料
[1] https://www.nga.mil/news/GEOINT_Artificial_Intelligence_.html
[2] https://www.politico.com/news/magazine/2025/09/02/pentagon-ai-nuclear-war-00496884
[3] https://www.spaceforce.mil/Portals/2/Documents/SAF_2025/USSF_Data_and_AI_FY2025_Strategic_Action_Plan.pdf
[4] https://www.anduril.com/lattice/lattice-mesh
[5] https://www.hindustantimes.com/world-news/us-news/did-us-use-anthropics-claude-ai-in-iran-strikes-despite-trumps-ban-101772345758921.html
[6] https://www.palantir.com/platforms/aip/defense/
[7] https://www.theglobeandmail.com/world/article-israel-spies-drones-military-operation-iran/
[8] https://www.foxnews.com/us/ai-tool-claude-helped-capture-venezuelan-dictator-maduro-us-military-raid-operation-report
[9] https://notdivided.org/
[10] https://futurism.com/artificial-intelligence/anthropic-military-ai-nuclear-strike
[11] https://www.bloomberg.com/features/2024-ai-warfare-project-maven/
[12] https://www.axios.com/2026/02/23/ai-defense-department-deal-musk-xai-grok
注:本文封面图片来自版权图库,转载使用可能引发版权纠纷。
特 别 提 示
1. 进入『返朴』微信公众号底部菜单“精品专栏“,可查阅不同主题系列科普文章。
2.『返朴』提供按月检索文章功能。关注公众号,回复四位数组成的年份+月份,如“1903”,可获取2019年3月的文章索引,以此类推。
版权说明:欢迎个人转发,任何形式的媒体或机构未经授权,不得转载和摘编。转载授权请在「返朴」微信公众号内联系后台。