无尘阁日记

无尘阁日记

杀人的不是导弹,是算法
2026-03-03

你有没有想过,一个人是怎么被"算"死的?

不是被追杀,不是被围堵,而是被一台机器,用数学的方式,算出了他今晚会出现在哪个房间、几点走出大门、走哪条路。

然后,导弹就到了。

哈梅内伊,伊朗最高领袖,全世界防护最严密的人之一,就是这么死的。

你以为这是好莱坞电影?不是。这是2026年真实发生的事。而且比电影恐怖一万倍——因为电影里,主角还有机会跑。

现实中,他连跑的机会都没有。

因为他往哪个方向跑,AI都算好了。

一、一场"开卷考试"式的暗杀

咱们先把这事掰碎了说。

过去杀一个人,靠的是什么?是间谍潜伏、是线人冒死传情报、是特种兵摸黑突袭。

说白了,靠的是"人"。

人会出错,会暴露,会被反杀。所以暗杀这种事,向来九死一生。

但这次不一样。

这次美军用了一套东西,说出来你可能觉得不真实——他们用了一个聊天机器人。

对,就是那种你平时拿来写文案、问问题的AI聊天工具。

它的名字叫Claude。

当然,Claude在这件事里干的活儿,跟你用它写个朋友圈文案完全不是一回事。

军方把海量的情报往里面一灌——卫星照片、通信记录、社交网络、出行轨迹、历史行为模式——然后问它一个问题:

"如果我们在这个时间点发动袭击,目标最可能的逃跑路线是哪条?"

Claude不会犹豫,不会紧张,不会因为吃了顿夜宵没消化而判断失误。

它会在几秒钟内,吐出一张概率图表。

哪条路逃跑概率最高、哪条路可以拦截、哪个时间窗口最优。

这不是打仗,这是做数学题。

而哈梅内伊,就是那道被解开的题。

二、三台"杀人机器",比你想象的冷血

如果Claude只是"帮着分析分析",那还不算最可怕的。

最可怕的是以色列人搞出来的三套系统。

第一套叫"福音书"。

听名字挺圣洁吧?它干的事一点都不圣洁——它是专门挑选轰炸目标的AI。

过去,人类情报分析师一年才能确定50个打击目标。

这玩意儿一天就能吐出100个。

一天100个,什么概念?相当于每15分钟就有一栋楼被AI判了"死刑"。

第二套叫"薰衣草"。

名字更好听了是吧?它干的事更狠。

它会给一个城市里的几百万人挨个"打分"。怎么打?你平时跟谁打电话、手机去过哪些地方、社交媒体上关注了谁——全部喂给算法。

算法一跑,啪,给你贴个标签:疑似武装分子。

你可能就是个送外卖的,但如果你的手机经常出现在某个敏感区域,对不起,你被标记了。

最离谱的是,AI推荐完目标之后,人类指挥官审核的时间是多少?

20秒。

20秒能干啥?连看清这个人长什么样都不够。

用报道里的原话说——"只够确认目标是男是女"。

第三套,名字最吓人:叫"爸爸在哪儿"。

你没看错。

这套系统专门追踪目标人物什么时候回家。

为什么?

因为指挥官发现,一个人回到家、和老婆孩子待在一起的时候,是最没有防备的时候。

所以他们专挑这时候动手。

你回家了,抱着孩子,系统一看——"目标已进入家宅"——导弹就来了。

那一整栋楼的邻居、楼下小卖部的老板、刚放学路过的小孩——全算"附带伤亡"。

在系统的峰值运行期间,它标记了37000个目标。

三、真正细思极恐的事

你以为上面说的就是全部?

不,真正让人后背发凉的,是另一件事。

做出Claude的那家公司,是反对军方这么干的。

Anthropic公司——Claude的开发者——曾经公开抗议,说我们的产品使用条款写得清清楚楚:不许用于暴力目的,不许用于开发武器,不许用于监视活动。

五角大楼的回应是什么?

"要么把安全限制去掉,要么滚。"

2月底,美国国防部长直接宣布Anthropic构成"供应链风险"。特朗普亲自下场骂:

"美利坚合众国绝不允许一家左倾公司来决定我们的军队怎么打仗!"

然后,Anthropic被踢出局了。

第二天——仅仅一天——OpenAI就接上了。

签约、部署、上线,丝滑得像换了个APP一样。

OpenAI的CEO说了句很漂亮的话:"我们坚持人工智能不得用于大规模监控,武力使用必须由人类负责。"

但所有人都注意到了一个细节:OpenAI最新的公司宗旨里,悄悄删掉了"安全"两个字。

它现在只说"造福全人类"。

谁是人类?怎么造福?被导弹炸的那些人算不算人类?

没人回答。

四、老百姓最该想明白的四件事

说完了这些,咱们回到跟你我有关的部分。

第一件事:以后的仗,不是人打的了。

以前打仗,两军对垒,拼的是人多、枪多、胆子大。

以后不是了。

以后拼的是:谁的数据更多,谁的算法更聪明,谁的决策链更短。

你的卫星能不能比对手早10秒钟发现目标?你的AI能不能比对手多分析一条逃跑路线?

这10秒钟,就是生死。

所以你现在明白了吧,为什么各个大国都在拼命搞AI、拼命搞芯片、拼命搞算力。

这不是什么科技竞赛,这是军备竞赛。

第二件事:科技公司不站队?想多了。

你以为科技公司可以保持"中立"?

Anthropic刚刚用亲身经历告诉你:不听话,就踢你。

你不干?后面排着队的公司多得是。

OpenAI接了,Google签了,马斯克的xAI也签了。合同条款宽松到只写了四个字:"所有合法用途。"

什么叫合法?法是谁定的?

所以别天真了。美国的科技公司给军方干活,不是趋势,是现实。

第三件事:最古老的武器,仍然最管用。

AI再强,也得有人告诉它"往哪看"。

哈梅内伊最终暴露行踪,不光是因为卫星和算法。更关键的是——有人从内部泄露了他的日程、他的通信方式、他每天见谁。

这叫什么?这叫间谍。

人类最古老的情报手段。

几千年了,换了多少朝代,间谍这行从来没失业过。

AI是好用,但如果没有一个内鬼偷偷把情报塞进去,AI连起手的地方都找不到。

所以,反间谍这件事,永远不能松懈。

第四件事:贼喊捉贼,是这个世界的常态。

美国天天指着别人说:"你的公司跟军方有关联!"

现在你看到了,它自己就是这么干的。而且干得理直气壮,干得光明正大。

为什么它打压别国的科技公司,用的永远是同一套剧本——"跟军方有关联"?

因为它知道这招管用。因为它自己就在这么干,所以它知道这东西有多可怕。

贼的眼里看谁都是贼。这句老话,放在国际政治里,一个字都不用改。

最后说一句扎心的。

那个叫"爸爸在哪儿"的系统,我想了很久。

它的运行逻辑是:等一个人回到家,等他和家人团聚的那一刻,然后发射导弹。

你知道这意味着什么吗?

它把"回家"这件事,变成了一种罪。

它把一个父亲抱着孩子的那一刻,变成了最佳射击窗口。

它用算法精确计算了——人在什么时候最没有防备。

答案是:和你爱的人在一起的时候。

这不是战争。

这是一种我找不到名字的东西。

但我知道,如果有一天AI真的决定了所有人的命运,那我们必须确保——

写算法的那个人,心里还装着人。