中国力主禁用的武器,却被迫研发亮相,美国的双标起了反作用

141 2025-11-24 19:49

那只机械狗移动起来悄无声息,只有电机轻微的嗡鸣,像林间昆虫的振翅。

它没有表情,黑色的传感器阵列像复眼的昆虫,冷漠地扫视着模拟街区。

它的背上,是一支黑洞洞的自动步枪,枪口稳定得可怕。

这一幕,不是电影,是中国与柬埔寨的联合军演现场。

看到它的人,心里都会咯噔一下,这东西,真的来了。

可很多人忘了,就在几年前,在日内瓦那个灯火通明、充满着各国口音的会议厅里,最声嘶力竭呼吁给这类武器戴上紧箍咒的,正是中国。

001

时间拨回到2021年,联合国的特定常规武器公约审议大会。

气氛很微妙,大家都知道,这次谈的是一个潘多拉魔盒,致命性自主武器系统,说白了,就是杀手机器人。

中国的代表团带去了一份厚达80页的提案,里面的文字冷静又急切,每一条都在说,把人类的生死判决权交给一段代码,这事儿,不行,绝对不行。

提案逻辑清晰,从康德的伦理学讲到现有国际人道法的困境,再到战场上算法误判可能带来的灾难。

比如,烟雾和伪装就可能让机器把记者或难民识别成敌人。

这不是猜测,是有血的教训的。

他们不是在空谈,这份提案里,连管控框架都设计好了,怎么定义,怎么核查,技术怎么限制转让,甚至建议把条款写进日内瓦公约里。

那天的会场里,空气是凝固的。

一个又一个国家代表发言,125个国家,都投了赞成票。

看起来,人类的理智似乎要占上风了,我们真的有机会在技术彻底失控前,给它拴上一条链子。

当时代表团的人,脸上或许都有一丝如释重负。

直到美国代表开口。

002

那张脸很平静,说出来的话却像一块冰,砸进了所有人的心里。

他说,自主武器能减少美军士兵的伤亡,这才是真正的人道主义。

人道主义?

会场里一片寂静。

谁都记得,几年前,同样是美国的国防官员,对着镜头义正辞严,说把生杀大权交给机器是对人类文明的亵渎。

这才几年?

他们部署在中东的郊狼无人机蜂群已经累计实战超过五千台次了,魔爪武装机器人也早已不是什么新鲜玩意。

他们不是在讨论伦理,他们是在保护自己已经形成的、并且正在不断扩大的技术优势。

当他们没有的时候,他们谈道德。

当他们有了,他们谈人道。

这份所谓的人道,是只属于美国士兵的人道。

这一票否决,像一声清脆的耳光,打在了那125个赞成票的脸上,也打在了那份80页的提案上。

所有的努力,瞬间化为泡影。

0TAINMENT: 003

美国人不是一个人在战斗。

以色列代表的发言同样简洁有力。

作为全球无人武器研发的急先锋,他们的哈洛普自杀式无人机和守护者无人战车,在中东的战场上早已声名赫赫,累计执行的任务次数,恐怕连他们自己都数不清。

早些年,以色列也曾以防范恐怖袭击为由,对禁令表示过暧昧的支持。

可现在,当技术形成代差,当他们的产品线已经成熟到可以出口创汇时,话锋立刻就变了,他们说,禁止发展会让以色列面临严重的安全威胁。

国家安全,多好的理由。

仿佛他们的安全,就必须建立在技术不受约束的绝对优势之上。

还有俄罗斯和印度。

俄罗斯的代表面无表情,他们的天王星9无人战车在叙利亚战场上表现并不算好,暴露了各种技术缺陷,甚至误伤了友军,死了三个士兵。

但这不重要,重要的是,他们必须待在这个牌桌上。

他们输不起被拉开代差的未来。

印度人则更直接,他们需要弯道超车。

2023年,印度一口气砸了20亿美元启动无人武器专项计划,对于他们来说,这项技术是弥补常规军力短板的希望。

禁令,等于断了他们的念想。

利益,赤裸裸的利益。

这几个国家,像几个早已商量好的牌手,联手把桌子给掀了。

004

中国代表团什么都没说,只是在最后的声明里,平静地表达了遗憾。

但所有人都听懂了潜台词。

那是一种被背叛后的清醒和冷静。

既然规则守护不了君子,那君子也不能赤手空拳地面对野蛮人。

回国后,一切都变了。

原本用于探讨伦理和法律框架的会议,议题悄然改变。

来自各个院所的顶尖工程师,开始频繁出入那些安保严密的园区。

空气中弥漫着一种紧迫感,一种时不我待的焦虑。

这并非主动挑起竞赛,而是一种无奈的自保。

程序正义已经走完了,道义上的责任也尽到了,当别人已经把刀架在你脖子上了,你不能还指望用道德文章去感化他。

2024年,当解放军正式列装那款武装机器狗时,美国众议院的议员立刻跳出来,大喊无法接受中国发展杀手机器人。

我们的回应很简单,只是把当年在日内瓦的完整记录,连同那125个赞成票的事实,又摆了一遍。

美方瞬间沉默了。

因为他们知道,中国手里握着的,是程序正义。

是你们先撕毁了君子协定,那么就别怪我们拿起武器来保卫自己。

005

所以,才有了开头的那一幕。

那条机器狗,只是冰山一角。

在之后的九三阅兵上,一个完整的无人作战集群,就这样展现在世界面前。

有小型的侦察无人机,能神不知鬼不觉地悬停在城市上空。

有无人配送车,能冒着炮火为前线输送补给。

还有自主火炮系统,能根据战场数据自动计算射击诸元。

这是一个体系,一个为了应对最坏情况而打造的防御体系。

中国的逻辑很清晰,我们的国防政策是防御性的。

这些装备,首先被部署在边境巡逻,减少士兵在高寒缺氧地区的生命危险。

被用在反恐维稳,提高精准打击能力,避免伤及无辜。

在灾害救援中,它们可以进入人类无法进入的危险区域。

最关键的一点,中国在所有这些武器系统里,都保留了最后一道阀门,人类否决权。

算法可以提供建议,可以锁定目标,但扣下扳机的最后指令,必须来自人类指挥官。

从技术层面,守住了那条伦理的底线。

并且,中国也明确表态,不首先使用自主武器系统。

这是一种平衡,一种在理想破灭后,在现实泥潭里艰难寻找的平衡。

既不放弃对人道主义的坚守,也绝不拿国家安全去赌对手的良心。

006

这场围绕着杀手机器人的博弈,表面上看是伦理和安全的辩论,说到底,是谁来制定未来战争规则的游戏。

中国先是尝试扮演一个规则的倡导者和守护者,想和大家一起,给这头技术猛兽套上缰绳。

这条路被堵死之后,中国迅速切换角色,成为了一个有力的竞争者。

这一前一后的转变,看似矛盾,却打出了一套极其高明的组合拳。

它不仅向世界展示了谁是真正的人道主义者,谁又是双重标准的玩家,更重要的是,它为中国赢得了发展的时间和道义上的合法性。

到了2024年,已经有80多个国家联名,呼吁重启自主武器系统的管控谈判。

这一次,大家讨论的基础,很大程度上是中国提出的那几条原则,人类主导、风险可控、国际共治。

那个曾经一家独大的规则制定模式,正在悄悄地裂开一道缝。

未来会怎样,没人知道。

或许有一天,这些沉默的钢铁战士真的会走上战场。

但至少现在,当中国的工程师们在深夜的实验室里调试着代码时,他们心里清楚,他们所做的一切,不是为了开启战争,而是为了终结别国随心所欲发动战争的权力。

信息来源:

观察者网

环球网

新华网

联合国官网

下一篇:为什么要禁用“卫星锅”到底能看见什么?我们小看卫星锅了
上一篇:A股公告刷屏,科陆选职工代表,中工签伊拉克医院项目
推荐资讯