杀人的不是导弹,是算法
2026-03-03
你有没有想过,一个人是怎么被"算"死的?
不是被追杀,不是被围堵,而是被一台机器,用数学的方式,算出了他今晚会出现在哪个房间、几点走出大门、走哪条路。
然后,导弹就到了。
哈梅内伊,伊朗最高领袖,全世界防护最严密的人之一,就是这么死的。
你以为这是好莱坞电影?不是。这是2026年真实发生的事。而且比电影恐怖一万倍——因为电影里,主角还有机会跑。
现实中,他连跑的机会都没有。
因为他往哪个方向跑,AI都算好了。
一、一场"开卷考试"式的暗杀
咱们先把这事掰碎了说。
过去杀一个人,靠的是什么?是间谍潜伏、是线人冒死传情报、是特种兵摸黑突袭。
说白了,靠的是"人"。
人会出错,会暴露,会被反杀。所以暗杀这种事,向来九死一生。
但这次不一样。
这次美军用了一套东西,说出来你可能觉得不真实——他们用了一个聊天机器人。
对,就是那种你平时拿来写文案、问问题的AI聊天工具。
它的名字叫Claude。
当然,Claude在这件事里干的活儿,跟你用它写个朋友圈文案完全不是一回事。
军方把海量的情报往里面一灌——卫星照片、通信记录、社交网络、出行轨迹、历史行为模式——然后问它一个问题:
"如果我们在这个时间点发动袭击,目标最可能的逃跑路线是哪条?"
Claude不会犹豫,不会紧张,不会因为吃了顿夜宵没消化而判断失误。
它会在几秒钟内,吐出一张概率图表。
哪条路逃跑概率最高、哪条路可以拦截、哪个时间窗口最优。
这不是打仗,这是做数学题。
而哈梅内伊,就是那道被解开的题。
二、三台"杀人机器",比你想象的冷血
如果Claude只是"帮着分析分析",那还不算最可怕的。
最可怕的是以色列人搞出来的三套系统。
第一套叫"福音书"。
听名字挺圣洁吧?它干的事一点都不圣洁——它是专门挑选轰炸目标的AI。
过去,人类情报分析师一年才能确定50个打击目标。
这玩意儿一天就能吐出100个。
一天100个,什么概念?相当于每15分钟就有一栋楼被AI判了"死刑"。
第二套叫"薰衣草"。
名字更好听了是吧?它干的事更狠。
它会给一个城市里的几百万人挨个"打分"。怎么打?你平时跟谁打电话、手机去过哪些地方、社交媒体上关注了谁——全部喂给算法。
算法一跑,啪,给你贴个标签:疑似武装分子。
你可能就是个送外卖的,但如果你的手机经常出现在某个敏感区域,对不起,你被标记了。
最离谱的是,AI推荐完目标之后,人类指挥官审核的时间是多少?
20秒。
20秒能干啥?连看清这个人长什么样都不够。
用报道里的原话说——"只够确认目标是男是女"。
第三套,名字最吓人:叫"爸爸在哪儿"。
你没看错。
这套系统专门追踪目标人物什么时候回家。
为什么?
因为指挥官发现,一个人回到家、和老婆孩子待在一起的时候,是最没有防备的时候。
所以他们专挑这时候动手。
你回家了,抱着孩子,系统一看——"目标已进入家宅"——导弹就来了。
那一整栋楼的邻居、楼下小卖部的老板、刚放学路过的小孩——全算"附带伤亡"。
在系统的峰值运行期间,它标记了37000个目标。
三、真正细思极恐的事
你以为上面说的就是全部?
不,真正让人后背发凉的,是另一件事。
做出Claude的那家公司,是反对军方这么干的。
Anthropic公司——Claude的开发者——曾经公开抗议,说我们的产品使用条款写得清清楚楚:不许用于暴力目的,不许用于开发武器,不许用于监视活动。
五角大楼的回应是什么?
"要么把安全限制去掉,要么滚。"
2月底,美国国防部长直接宣布Anthropic构成"供应链风险"。特朗普亲自下场骂:
"美利坚合众国绝不允许一家左倾公司来决定我们的军队怎么打仗!"
然后,Anthropic被踢出局了。
第二天——仅仅一天——OpenAI就接上了。
签约、部署、上线,丝滑得像换了个APP一样。
OpenAI的CEO说了句很漂亮的话:"我们坚持人工智能不得用于大规模监控,武力使用必须由人类负责。"
但所有人都注意到了一个细节:OpenAI最新的公司宗旨里,悄悄删掉了"安全"两个字。
它现在只说"造福全人类"。
谁是人类?怎么造福?被导弹炸的那些人算不算人类?
没人回答。
四、老百姓最该想明白的四件事
说完了这些,咱们回到跟你我有关的部分。
第一件事:以后的仗,不是人打的了。
以前打仗,两军对垒,拼的是人多、枪多、胆子大。
以后不是了。
以后拼的是:谁的数据更多,谁的算法更聪明,谁的决策链更短。
你的卫星能不能比对手早10秒钟发现目标?你的AI能不能比对手多分析一条逃跑路线?
这10秒钟,就是生死。
所以你现在明白了吧,为什么各个大国都在拼命搞AI、拼命搞芯片、拼命搞算力。
这不是什么科技竞赛,这是军备竞赛。
第二件事:科技公司不站队?想多了。
你以为科技公司可以保持"中立"?
Anthropic刚刚用亲身经历告诉你:不听话,就踢你。
你不干?后面排着队的公司多得是。
OpenAI接了,Google签了,马斯克的xAI也签了。合同条款宽松到只写了四个字:"所有合法用途。"
什么叫合法?法是谁定的?
所以别天真了。美国的科技公司给军方干活,不是趋势,是现实。
第三件事:最古老的武器,仍然最管用。
AI再强,也得有人告诉它"往哪看"。
哈梅内伊最终暴露行踪,不光是因为卫星和算法。更关键的是——有人从内部泄露了他的日程、他的通信方式、他每天见谁。
这叫什么?这叫间谍。
人类最古老的情报手段。
几千年了,换了多少朝代,间谍这行从来没失业过。
AI是好用,但如果没有一个内鬼偷偷把情报塞进去,AI连起手的地方都找不到。
所以,反间谍这件事,永远不能松懈。
第四件事:贼喊捉贼,是这个世界的常态。
美国天天指着别人说:"你的公司跟军方有关联!"
现在你看到了,它自己就是这么干的。而且干得理直气壮,干得光明正大。
为什么它打压别国的科技公司,用的永远是同一套剧本——"跟军方有关联"?
因为它知道这招管用。因为它自己就在这么干,所以它知道这东西有多可怕。
贼的眼里看谁都是贼。这句老话,放在国际政治里,一个字都不用改。
最后说一句扎心的。
那个叫"爸爸在哪儿"的系统,我想了很久。
它的运行逻辑是:等一个人回到家,等他和家人团聚的那一刻,然后发射导弹。
你知道这意味着什么吗?
它把"回家"这件事,变成了一种罪。
它把一个父亲抱着孩子的那一刻,变成了最佳射击窗口。
它用算法精确计算了——人在什么时候最没有防备。
答案是:和你爱的人在一起的时候。
这不是战争。
这是一种我找不到名字的东西。
但我知道,如果有一天AI真的决定了所有人的命运,那我们必须确保——
写算法的那个人,心里还装着人。
发表评论: