AI让战争变成游戏:美军打伊朗24小时轰1000个目标,「机器速度」成为标准

军打伊朗,用 AI 辅助砲火打击,这件事本身并不令人惊讶。

但这场战事令人惊讶的是速度。

2026 年 2 月 27 日,美国与以色列联合发动代号「Epic Fury」的对伊朗打击行动,虽然名字很中二,但第一个 24 小时,伊朗有超过 1000 个目标遭到打击。

整场行动延伸至 2000 个以上的打击目标,美国中央司令部司令布拉德.库珀上将描述这次行动的规模几乎是 2003 年入侵伊拉克的「两倍」。

两倍不是差在量,是时间。

这不是人类的速度

在 2003 年的伊拉克战争中,一个目标从情报确认到批准打击,往往需要数十小时。卫星影像由人工逐帧审阅,情报文件在不同部门之间传递、翻译、汇报、再确认。这是「人类速度」,要受限于人的注意力、工作小时、认知容量(记忆力)。

现在不一样了。

Maven Smart System 接入超过 150 种数据来源,包括卫星影像、无人机画面、信号情报(SIGINT)、人力情报(HUMINT)以及历史打击纪录。这些数据,每毫秒都在输入系统。而 Claude,是 Maven 用来读懂这些数据的核心语言模型之一。

具体的分工是这样的,AI 负责初步筛选与语义理解,完成初步分析后,标注目标优先等级,推送给人类分析师。分析师不再从零开始淹没在数据洪流里。他们只需要处理 AI 已经预判过、已经排序过的资讯,然后做出最终决定。

美国中央司令部发言人蒂莫西.霍金斯上尉的原话是:AI 技术「可以对传入数据进行初步筛选,使分析人员能够将精力集中在更高层级的分析和核实工作上」。

AI 做出战略选择,人类军官决定。

Maven Smart System 战场大脑

Maven Smart System 并不是新东西。这套系统由 Palantir Technologies 开发,最初源自 2017 年美国国防部的「Project Maven」计划,那个计划曾在 Google 内部引发大规模员工抗议,最终导致 Google 退出军事 AI 合约。

但 Palantir 继续做下去了。

发展至今,Maven Smart System 已成为美军分类网络中最深度整合的 AI 平台之一。Claude 能在五角大厦的机密网络上运行,是 2024 年 Anthropic 与国防部签署合约后的成果,合约上限约为 2 亿美元、为期两年,Claude 也因此成为首个被允许进入美军机密网络的商业 AI 模型。

在伊朗行动中,Maven 的具体功能包括:

  • 即时汇整多来源情报数据(卫星、无人机、信号拦截)
  • 根据目标重要性与威胁等级进行自动排序
  • 生成精确座标与打击建议清单
  • 让人类分析师聚焦在核实与最终授权,而非数据整理

如果说传统情报系统是一间图书馆,那 Maven 是个已经把所有书读完、整理好摘要、按重要性排好队的助理。你只需要告诉它你要什么,它已经知道从哪里找、找到什么。

决策步骤被压缩到极致

传统军事决策链,大概是这样的:

感测器收集数据 → 分析员阅读整理 → 提交报告 → 指挥官评估 → 法律顾问审核 → 批准打击

每个环节,都有人在等待。等待翻译、等待审阅、等待汇报、等待确认。这个流程保留了大量的「决策缓冲时间」但也意味著,节奏会保持在最慢的那个环节。

Maven + Claude 做的事情,是把「感测器收集数据→分析员阅读整理」这段流程,从人类时间压缩到机器时间。AI 并不替代最终的打击决策,但它大幅缩短了到达决策点所需的时间。

首 24 小时 1000 个目标,每小时大约 41 个目标,平均每分钟不到一个。乍听之下不算快,但背后是每个目标所需的情报汇整、位置确认、威胁评估,这些工作在 AI 辅助下压缩到了人类无法单靠自己达到的效率。

战争的速度已经被 AI 带坏了。

被封禁,然后被用来炸伊朗

这里有 2026 年最奇特的科技新闻,值得单独说一下。

2026 年 2 月 27 日,川普政府宣布封禁 Anthropic,指他是为「供应链风险」、「国家安全威胁」,命令所有联邦机构立即停止使用 Claude。理由是 Anthropic 拒绝移除 Claude 的安全护栏,特别是那些阻止 Claude 被用于自主武器控制与大规模监控的限制。

延伸阅读:Anthropic CEO 怒呛:OpenAI 与五角大厦合约全是谎言,Altman 伪装自己为和平大使

几乎同一时刻,美军正在用 Claude 执行「Epic Fury」行动的打击目标分析。

被封禁。然后继续用来炸人,同一天。

五角大厦事后解释「有六个月过渡期」。但任何熟悉作战系统的人都知道,你不可能在主动军事行动中间「临阵换掉」核心 AI 系统。军事指挥官已深度依赖 Maven + Claude 的工作流程,替换不是技术问题,而是操作风险问题。

这就是 AI 一旦深度嵌入军事系统后,带来的现实,政策上可以封禁一家公司,但操作层面无法很快速的移除。

从「可以更快」到「不得不更快」

有一件事情可以确定,AI 军事化带来的速度加成,不会因为某家公司因为丢掉军方契约而消失。

如果 Claude 被移除,Maven 会接入 OpenAI 的模型。事实上,Anthropic 封禁后,OpenAI 立即宣布接管五角大厦的 AI 系统。速度的逻辑不会改变,改变的只是谁提供那个速度,拜托,Sam Altman 那么会抢椅子。

这才是评论这次伊朗行动时,值得大家理解的核心意义。

人类战争从来不是静止的,火药改变了城墙的意义,航空器改变了战线的概念,核子武器改变了战争的底线。每次技术上的跃升,都同时带来「效率的提升」与「错误的放大」,速度越快,可以挽回的时间就越少。

AI 正在改变的是决策链的长度。当一套系统可以在 24 小时内辅助完成 1000 次打击目标的情报整合与优先排序,战争就不再等待人类最慢的那一环。而且美军还持有未曾使用过(至少没有承认)的全自动武器系统,也就是会自行辨识、决策、到执行打击的武器系统。

这次伊朗行动,可能是 AI 辅助作战首次被公开。「机器速度战争」已经是现在进行式了,而且不可能有回头路。

来源
免责声明:以上内容仅为作者观点,不代表Followin的任何立场,不构成与Followin相关的任何投资建议。
喜欢
收藏
评论