站点出售QQ:1298774350
你现在的位置:首页 > 演出资讯  > 儿童亲子

美对伊朗的攻击中大量运用AI,但175名儿童死亡带来质疑

发布时间:2026-03-12 17:27:34  浏览量:3

一枚战斧巡航导弹击中了伊朗米纳布一所女子小学,约175人遇难,其中大多数是孩子。

调查初步指向一个残酷的原因:过时的情报数据。而这场被称为"史诗之怒"(Operation Epic Fury)的军事行动,正是美国历史上第一场大规模引入大语言模型的战争。

据《华盛顿邮报》披露,美军在对伊朗的打击行动中,将Anthropic公司的Claude与Palantir公司的Maven智能系统深度整合。这套组合能够将原本需要数周完成的战役规划,压缩为近乎实时的作战决策,帮助军事分析师在短短24小时内锁定逾千个打击目标。

但必须说清楚的是,Claude在这里扮演的角色不是"扣下扳机",而是"整理情报、梳理优先级"。它属于决策支持系统,帮助人类规划者在海量卫星图像和信号情报中找到方向,而非直接下达攻击命令。美军中央司令部司令布拉德·库珀上将也公开表示:"人工智能帮助我们处理数据,但最终决策权在人。"

这个区分至关重要,却常常在公共讨论中被模糊掉。

人们对军事AI的想象,往往停留在科幻电影里自主猎杀的机器人。现实中的军事AI,更像是一个极度高效但需要人类指挥官不断校验的"参谋助手",而非独立行动的杀手。

技术的加速,有时会让错误也跑得更快。

米纳布学校事件已成为这场战争最沉重的注脚。路透社和《纽约时报》的报道均指向同一个结论:导致这次误击的,很可能是一份未经及时更新的目标情报。Maven系统从多源数据中识别出该地点附近的军事设施,而AI的自动化推荐并未能区分出边界之内那座正在上课的学校。

这让人想起1988年美国宙斯盾巡洋舰"文森斯号"击落伊朗民航客机的悲剧,以及1999年美军轰炸中国驻南联盟大使馆的事件,那两次同样源于情报失误与自动化系统的叠加偏差。技术在变,人类判断失误的可能性却从未消失。

更复杂的是,Claude本身还深陷一场政治风暴。就在美军密集使用该模型之际,五角大楼与Anthropic之间爆发了公开冲突。Anthropic拒绝允许其产品被用于全自主武器系统和大规模国内监控,随即被国防部长赫格塞斯列为"供应链风险",并被踢出联邦采购名单。Anthropic随即提起诉讼。这一幕,是科技公司与军事机器之间关系日趋紧绷的最新缩影。

有一个关键悖论值得正视:AI介入战争,反而在某种程度上让人类责任变得更重,而不是更轻。

决策支持系统的本质,是把更多、更快的信息压缩推送给人类指挥官。这意味着指挥官面临的选项更多、节奏更快、压力更大,留给深思熟虑的时间却更少。系统输出的目标清单可能带有隐性偏差,而身处信息洪流中的操作者,往往难以对每一个推荐结果保持质疑。这就是所谓的"自动化偏见",一种将机器推荐视为权威的心理惯性。

加沙战争中以色列使用的"薰衣草"系统,曾被记者调查揭示,AI推荐名单与最终打击结果高度吻合,引发外界对"人工确认"究竟有多少实质意义的严肃质疑。

但即便如此,这些悲剧的根源指向的仍然是人类的决策:宽松的交战规则、过时的情报核验流程、对自动化结果缺乏足够的制度性质疑机制。怪罪算法,有时恰恰是在为做出最终决定的人类指挥官开脱责任。

真正的问题从来不只是"AI在战争中能做什么",而是"哪些人、以何种规则、在何种监督下使用它"。技术改变了战争的速度和规模,却没有改变这个古老命题的核心:战争的后果,终究由人来承担。

作品声明:仅在头条发布,观点不代表平台立场