站点出售QQ:1298774350
你现在的位置:首页 > 演出资讯  > 儿童亲子

165个儿童,五角大楼拒绝透露是否使用AI选择伊朗小学做轰炸目标

发布时间:2026-03-07 20:31:19  浏览量:3

2026年2月28日,伊朗南部城市米纳布,沙贾雷·塔伊贝赫女子学校的操场上,孩子们正准备开始新的一天。

随后,导弹落下。

袭击造成165名伊朗小学生和教职员工死亡,遇难者中大多数是7至12岁的女孩,另有至少95人受伤。更令人震惊的是,导弹袭击结束后,第二波打击随即到来,前来救援和接孩子的家长也在这次"二次打击"中伤亡。

联合国将此次袭击定性为"对儿童权利的严重侵犯"。半岛电视台的独立调查呼吁展开国际调查。《纽约时报》的分析显示,这所学校毗邻伊朗一处海军基地,导弹很可能在打击周边军事目标时波及学校建筑。

在这场持续发酵的人道主义危机背后,有一个问题至今没有答案:这次袭击的目标,是人工智能选出来的吗?

这个问题之所以并非妄加猜测,是因为背景已经足够清晰。

《华尔街日报》于事件发生后率先披露,五角大楼在策划对伊朗的首轮军事打击期间,使用了Anthropic公司开发的Claude大型语言模型辅助目标选择,且这一系统在整个轰炸行动期间很可能持续使用。路透社随后报道,Anthropic早在2025年中期就与五角大楼签署了一份2亿美元的军事合同,并推出了专为军事用途定制的Claude版本。

当Futurism就AI在米纳布学校袭击中的具体角色联系五角大楼时,被转介至美国中央司令部,得到的答复只有一句话:"目前我们对此没有任何消息可以透露。"

这种沉默,本身就构成了一种信息。

问题的核心不仅在于这一次袭击,而在于整套军事AI决策机制的透明度问题。牛津大学研究AI治理的专家在事件发生后发表评论指出,五角大楼与Anthropic的争端暴露了AI整合进军事行动时系统性的治理漏洞,而这些漏洞在危机发生之前从未被认真填补。

Anthropic曾试图为这份合作设定红线,要求五角大楼承诺Claude不得用于完全自主武器系统和国内大规模监控,否则拒绝继续合作。五角大楼随即将Anthropic列为"供应链风险",特朗普随后在社交媒体上发文要求联邦机构停用Anthropic技术,却在同一篇帖子里又威胁动用总统权力强制该公司继续服务六个月。OpenAI随即填补空缺,与五角大楼签署了新合同。

这不是人工智能辅助军事打击第一次引发严重的伦理争议。

2024年4月,以色列媒体《+972杂志》经过调查披露,以色列军方在加沙战争中使用了名为"薰衣草"的人工智能系统选择打击目标,该系统将至少3.7万名巴勒斯坦人标注为空袭暗杀候选对象。六名以色列情报官员证实,这套系统在摧毁加沙基础设施的过程中扮演了核心角色。

一位以色列军方人员对《卫报》的表述令人不寒而栗:"在这个阶段,我每个目标只需花费20秒,每天要完成几十个。除了起到审批作用之外,我作为一个人没有任何附加价值。这确实节省了大量时间。"

这句话精确描述了一种新的战争逻辑:人类仍然在按钮,但决策已经外包。问责机制随之陷入一种精心设计的模糊状态,没有任何一个节点需要真正为结果负责。

Responsible Statecraft的报告显示,美军在对伊朗发动打击的最初24小时内,使用Claude辅助识别和处理了超过1000个目标。在这种规模和速度下,每一个目标的审核时间意味着什么,每一次"人类批准"究竟包含多少实质性判断,已经无从追问。

《时代》杂志的数据显示,在持续进行的美以联合轰炸行动中,平民死亡人数已超过1000人。

那165条在米纳布消失的生命,留下的问题将不会随着战争结束而消失:当一个算法参与了决定谁该死的过程,而没有任何人愿意承认这件事,责任究竟归属何处?

作品声明:仅在头条发布,观点不代表平台立场