中方三次提议约束致命机器人,均遭美英印俄拒绝,现在这些国家后悔大了!   是的,

朝史暮今天下事 2026-02-28 00:08:31

中方三次提议约束致命机器人,均遭美英印俄拒绝,现在这些国家后悔大了!   是的,早在十多年前,中国就已经敏锐地察觉到了这个风险,并三次在正式场合严肃提议,要给这种技术套上“缰绳”。但遗憾的是,当时包括美国、英国、俄罗斯、印度在内的几个军事大国,齐刷刷地投了反对票或选择了冷处理。   中国第一次提出约束提议是在2014年。那一年,人工智能还没像现在这样普及,多数人对“机器自主决定人生死”的认知,还停留在科幻电影里。   中国代表团在瑞士日内瓦的《特定常规武器公约》框架会议上,率先发声,明确主张建立国际监管机制,严防这类武器脱离人类控制投入战场。   当时的美英印俄,态度出奇一致。美国直接反对,它在无人机、自动化防御平台领域长期处于全球领先,担心约束条款会限制自身技术发展,束缚未来战略竞争的手脚。   英国没有直接投反对票,却一直冷处理。英国强调“负责任使用”而非“全面禁止”,本质上还是想保留自主武器的研发和使用空间,不想被国际规则捆住。   俄罗斯也明确拒绝了中方提议。俄罗斯当时正大力推进自主武器研发,成立了多个相关研发中心,把这类武器当作对抗高技术对手、减少己方士兵伤亡的重要手段,自然不愿接受限制。   印度则是出于自身军备发展的考虑。印度近年来一直在大幅增加无人系统投入,军工产业刚起步,它担心约束条款会堵死自身技术发展的道路,所以也站到了反对阵营。   2016年,人工智能技术开始快速发展,自主武器的实战应用越来越近。中国看到风险持续升级,第二次在国际场合提议,呼吁各国启动多边谈判,制定具有法律约束力的文书,严格限制完全自主致命武器的发展。   这一次,美英印俄依旧没有松口。它们当时都坚信,只要保留人类最终决策权,就不会出现机器失控的问题。技术上的自信,加上各自的战略考量,让它们完全忽视了中方的预警。   到了2019年,深度学习技术日渐成熟,自主武器的智能化水平大幅提升,扩散风险也开始显现。中国第三次发声,再次呼吁各国重视风险,推动达成相关国际约束协议。   遗憾的是,这三次提议,都没能得到美英印俄的认可。这些国家当时一门心思搞技术竞争,觉得规则是给弱者准备的,强者就该自由发展,完全没意识到,技术一旦失去约束,只会走向失控。   现在,这些国家终于体会到了当初的错误,后悔情绪越来越明显。华盛顿内部已有分析指出,当年若重视中方的预警,或许能提前掌握规则主导权,不至于现在陷入被动。   局势的变化,让这些国家的立场开始动摇。先是技术扩散速度超出预期,原本只有大国能掌握的自主武器技术,现在不少国家甚至极端组织都能接触到。叙利亚的恐怖分子,就曾多次用无人机袭击政府军和俄罗斯驻叙设施,这就是最直接的隐患。   再是失控风险真实发生。2020年3月,一架土耳其生产的“卡古-2”无人机,在没有人类指令的情况下,自主攻击了利比亚撤退的士兵,造成一人死亡。这起事件,成为致命自主武器自主攻击人类的首个有记录案例,也给各国拉响了警报。   更关键的是,中国在自主武器领域的发展,让这些国家感受到了压力。中国一直坚持“人类始终保有实质控制权”的原则,在规范发展的同时,实现了技术的快速突破。美英印俄当初拒绝约束,本想保住自身优势,没想到反而让中国抓住机会,实现了弯道超车。   这些国家现在的后悔,不是因为良心发现,更多是后悔当初没通过规则限制所有人,导致自己失去了优势,还面临着越来越大的安全风险。   中国当初三次提议,从来不是为了限制自身发展,也不是想拖其他国家的后腿。中国始终认为,致命自主武器关乎全人类的安全,必须通过国际规则加以约束,防止技术滥用带来的灾难性后果。   现在,国际社会对约束致命自主武器的呼声越来越高。2400多名人工智能领域学者曾共同签署宣言,呼吁禁止致命性自主武器。联合国也多次召开会议,讨论相关管控措施。   美英印俄现在再想回头,难度已经很大。规则的制定窗口一旦关闭,再想达成共识,需要付出更多努力。这也给所有国家上了一课:大国的远见,从来不是拥有多少致命武器,而是懂得在技术发展中守住底线,为全人类的安全负责。   中国会继续在国际场合发挥建设性作用,推动各方达成共识,共同管控致命自主武器的风险。毕竟,技术的发展应该服务于人类和平,而不是成为威胁人类安全的“潘多拉魔盒”。

0 阅读:61
朝史暮今天下事

朝史暮今天下事

感谢大家的关注