一个人、一套算法、一场战争 ——当AI学会了替人类决定谁该死
2026-03-22
你有没有想过,杀一个人需要多长时间?
不是电影里那种——掏枪、瞄准、扣扳机。
是一个现代化军事系统,从”锁定目标”到”批准击杀”,中间需要多少时间?
答案是:二十秒。
这不是科幻片的台词。这是2024年以色列情报军官的亲口证词。六名参与加沙战争的情报人员,对以色列独立媒体+972杂志和Local Call说出了这个数字。
二十秒。
一个人的名字从AI系统里弹出来,军官看一眼——确认是男性——点一下”批准”。
然后,一颗炸弹落在这个人睡觉的房子上。连同他的妻子、孩子、父母,一起。
这篇文章要讲的,就是这二十秒背后的三样东西:一个人、一套算法、一场战争。它们是怎么咬合在一起的,最后又是怎么把七万多条人命碾进去的。
一、一个人:不能停下来的总理
先说人。
本杰明·内塔尼亚胡,以色列历史上在位最久的总理。2023年10月7日,哈马斯发动突袭,杀了约1200名以色列人,劫持251名人质。举国震怒。
但很少有人注意到一件事——在这场灾难发生的时候,内塔尼亚胡正面临三项刑事指控:受贿、欺诈、背信。如果罪名成立,最高可判十年。
这不是反对派编排他。这是以色列检察系统从2016年就开始的调查,2020年正式开庭的案子。他是以色列建国以来,第一个在任期间被起诉的总理。
10月7日之前,他的民调已经很难看了。他为了保住权力,拉拢了以色列史上最极右翼的政治力量组阁——包括因煽动仇恨被定过罪的国家安全部长本·格维尔。他推的司法改革计划引发了几十万人上街抗议。
然后,10月7日来了。
战争,对任何一个政客来说,都是最好的挡箭牌。
你不能在战时换掉总司令。你不能在炮弹横飞的时候开庭审案子。法院确实因为”安全考虑”减少了庭审天数。一个本来就在拖的案子,又被战争拖得更远了。
2024年12月,内塔尼亚胡终于出庭作证。他说了什么?“我等了八年就为这一刻。”——八年了,这案子还在审。
到2025年底,他干脆向以色列总统申请特赦。不认罪,不道歉,不承诺退出政治。理由是什么?“为了国家利益,审判应该立刻结束。”
反对党领袖拉皮德的回应很直接:只有有罪的人才会请求特赦。
2025年8月,他的政府试图解雇正在主持他案件起诉工作的总检察长巴哈拉夫-米亚拉。最高法院紧急叫停了这个决定。通信部长卡尔希随即在社交媒体上宣布:“我们不服从法院!”
而在这整个过程中,加沙的战争一天也没停。
2025年1月停火了不到两个月,3月就恢复了军事行动。
美国马里兰大学学者赛尔·阿布·拉斯在他的分析中说得明白:内塔尼亚胡从战争一开始就有两个交织的目标——第一,用战争维持权力;第二,在加沙制造既成事实。
战争越长,他的位子越稳。战争一停,他就得面对法庭、面对选举、面对问责。
这是一个不能停下来的人。
但是,一个人打不了一场现代战争。他需要工具。
二、一套算法:生产线上的死亡
这里要讲三个名字。你可能没听过,但它们共同构成了人类历史上第一次大规模AI辅助杀人系统。
Gospel(福音)——负责锁定建筑物。
Lavender(薰衣草)——负责锁定人。
Where’s Daddy?(爸爸在哪?)——负责追踪人什么时候回家。
是的,最后那个系统的名字就叫”爸爸在哪”。
先说Gospel。这个系统由以色列军事情报8200部队开发,功能很明确:把卫星图像、通信截获、监控数据、电子信号等等信息灌进去,让AI自动筛选出哪些建筑物可能是哈马斯的指挥所、武器库、发射阵地,或者——某个嫌疑人的住宅。
在过去,20个情报分析师要花300天,才能整理出50到100个轰炸目标。
有了Gospel,10到12天,200个目标。
这是什么概念?
加速了五十倍。
前以色列国防军总参谋长阿维夫·科哈维亲口说:这个系统每天能生成100个轰炸目标,并实时推荐优先打击顺序。
这就是为什么2023年10月7日之后的第一个月里,以色列就宣布在加沙打击了超过22000个目标——每天最多250个。2014年加沙战争,以色列空军打到后来目标都用完了,只能反复炸同一个地方。现在不会了。AI保证目标”永远不会用完”。
再说Lavender。
如果说Gospel负责锁定”地方”,Lavender负责的就是”人”。
它是一个概率模型。把加沙地带每一个居民的数据——手机通讯、社交媒体、出行轨迹、人际关系网——全部灌进去,然后给每个人打一个1到100的分数:这个人有多大概率属于哈马斯或杰哈德的军事力量。
战争初期,Lavender标记了37000个巴勒斯坦人为”潜在目标”。
三万七千人。
知道这个数字意味着什么吗?加沙战前人口大约230万。37000人相当于每62个人里就有一个被AI判定为”可以杀”。
而且,大多数是最低级别的所谓”初级战斗人员”——在过去根本不会出现在任何暗杀名单上的人。
但最让人后背发凉的部分还不是这个。
是审核流程。
六名情报军官说了同样的话:审核Lavender的输出,平均每人花二十秒。主要就确认一件事——目标是不是男性。
没有人审查AI为什么选了这个人。没有人检查原始数据。没有人做第二层核实。
“即使你不确定机器是对的,你也知道从统计上讲,没问题。”一名使用Lavender的军官说。
而Lavender自己的抽样测试显示,错误率是10%。也就是说,每标记10个人,就有1个根本不是武装人员。37000人里,至少3700人被错杀的风险是已知的、被接受的。
一名参与训练Lavender的数据科学家说了一件更要命的事:训练数据把哈马斯运营的内政部文职人员也算作了”哈马斯成员”。这意味着系统从一开始就把”文职”和”军事”搅在了一起。这不是bug,是feature——因为这样做让AI能标记更多目标。
最后说Where’s Daddy?。
它的功能精准到令人作呕:追踪Lavender名单上的人,等他们晚上回到家,和家人在一起的时候,发出通知——“目标到家了。”
然后轰炸开始。
为什么选晚上?为什么选家里?
因为容易找。一个情报军官的原话是:“以色列国防军毫不犹豫地在住宅里轰炸他们,作为首选方案。炸一个家庭的房子,比在外面找人容易多了。”
而且,炸这些所谓”初级目标”的时候,用的不是精确制导炸弹。
用的是”哑弹”——无制导的自由落体炸弹。
为什么?因为”不值得在一个不重要的人身上浪费一枚昂贵的精确炸弹。”
这是以色列情报军官的原话。
一枚哑弹扔进一栋公寓楼,整栋楼塌了。里面的人全死了——目标本人(如果他真的在家的话)、他的妻子、他的孩子、他的邻居。
有军官证实:因为Where’s Daddy的定位信息和实际轰炸之间有时间差,很多时候炸弹落下去的时候,目标人已经不在家了。
结果就是——杀了一整家人,目标根本没在屋里。
“这种事在我身上发生过很多次,”一名军官说。“我们袭击了一栋房子,结果那个人根本不在家。结果就是你无缘无故杀了一整个家庭。”
把这三个系统连起来看:
Gospel告诉你炸哪个建筑。Lavender告诉你炸谁。Where’s Daddy告诉你什么时候炸。
而”什么时候炸”的答案是:等他和家人在一起的时候。
这不是一个武器系统。这是一条工业化的死亡生产线。
三、一场战争:数字不会说谎
到底死了多少人?
截至2026年2月,加沙卫生部的数字是:超过73000名巴勒斯坦人死亡。
但独立学术研究给出了更高的数字。2026年2月发表在《柳叶刀·全球健康》上的一项入户调查估算,仅到2025年1月5日,加沙暴力死亡人数就已达到75200人——比同期官方数字高出34.7%。
马克斯·普朗克人口学研究所的模型估算,截至2024年底,约78000人在冲突中直接死亡。更新后的分析显示,实际暴力死亡人数可能已超过10万。
这些数字有一个共同特征:死者中,妇女、儿童和老人占56%以上。
2025年5月,一份以色列军方内部机密数据库被媒体披露。在当时53000名巴勒斯坦死者中,以军自己的记录显示只有8900人是武装人员。
做个除法:17%是战斗人员,83%是平民。
83%。
这个平民死亡比例有多离谱?人权观察和联合国的数据显示,它高于波黑战争整体、高于也门内战——在现代战争史上,只有斯雷布雷尼察屠杀、马里乌波尔围城和卢旺达大屠杀的平民占比与之可比。
而这一切,发生在一个号称”用AI提升精确打击能力”的军事行动中。
2024年4月,联合国人权高专办说得很直白:如果关于Lavender和Where’s Daddy的报道属实,那么”很多以色列对加沙的打击将构成战争罪——发动不成比例的攻击”。
2025年9月,联合国巴勒斯坦被占领土调查委员会走得更远——他们认定,《灭绝种族公约》所定义的五种灭绝行为中的四种,在加沙已经发生。
2025年9月,微软终止了8200部队对其Azure云服务的访问权限——因为用电话数据定位轰炸目标,违反了微软的服务条款。
一家科技公司,在伦理问题上,比一个国家走得更远。
四、这条链是怎么连起来的
回到开头。
一个面临牢狱之灾的总理,需要一场没有尽头的战争。
一场没有尽头的战争,需要一个永远不会耗尽目标的系统。
一个永远不会耗尽目标的系统,需要把”谁是敌人”的标准降得足够低——低到AI可以在加沙每62个人里挑出一个来炸。
而为了让这套系统高效运转,“审核”被压缩到了二十秒。“精确”被替换成了哑弹。“军事目标”被扩展到了睡着的家庭。
每一步,单独看,都有”合理”的解释。
AI只是个辅助工具嘛。人类操作员还是有最终决定权嘛。错误率10%在统计上可以接受嘛。打击哈马斯的军事必要性非常高嘛。
但你把这些环节串起来,就会发现一件事:
这条链上的每个环节,都在做同一件事——降低杀人的心理门槛和行政门槛。
AI让你不用亲自看情报、不用亲自做判断。二十秒的审核让你不用真正思考。“哑弹”让你不用在乎精确。“Where’s Daddy?”让你不用在白天面对一个活生生的人——等他睡着就好。
技术不是中立的。
当你把技术设计成这样——让杀人变得像点外卖一样容易、一样快捷、一样不需要思考——那技术本身就成了武器的一部分。
而在这条链的最顶端,坐着一个需要这场战争的人。
结语
这不是一个关于”AI是好是坏”的讨论。
这是一个关于”当权力、技术和动机完美咬合时会发生什么”的现实案例。
一个不能停下来的人,一套不会停下来的算法,一场被设计成不能停下来的战争。
三个齿轮咬合在一起,碾过去的是加沙的平民。七万多条命,其中大多数是妇女和孩子。
这件事正在发生。不是历史,是新闻。不是假设,是数据。
它比任何科幻片都恐怖。因为科幻片里的AI至少还需要获得自我意识才能开始杀人。
现实中的AI,只需要一个二十秒的”批准”。
合十。如夜话,至此。
发表评论: