金一南将军曾抛出震撼言论,他说:“未来最可怕的不是核武器,是人工智能进入战场。对人类威胁最大、最可怕的,不是核武器,而是AI技术!美军早将AI视作“颠覆战局”的核心技术,人工智能若进入战场,将带来毁灭性打击......”振聋发聩! 这件事的可怕之处,不是说人工智能今天就能替代所有飞行员,而是一个方向已经非常清楚:机器正在进入侦察、识别、指挥、决策、打击链条。过去战争讲究“人算”,如今越来越多环节变成“机算”。 美国国防部二〇二三年发布的数据、分析与人工智能采用战略,把人工智能视为提高军事决策速度和作战效率的重要工具。美方还推动所谓多域自主能力建设,目的并不含蓄,就是让无人系统跑得更快、铺得更广、用得更深。 核武器像一只关在玻璃柜里的猛兽,所有大国都知道砸碎玻璃意味着什么。人工智能军事化却像一团雾,钻进雷达、无人机、卫星、网络和舆论场。等雾气弥漫开,很多人可能才发现,按钮已经不止一个。 这也是金一南警示的分量所在。核武器威慑强调最后边界,人工智能军事化却可能降低冲突门槛。因为一些国家会产生错觉:既然派出去的是无人机、无人艇、无人车,不是自家士兵,那就可以多试几次、多压一步。 这种想法很危险。战争一旦被包装成“低成本点击”,和平就会被打折出售。算盘噼啪响,账单却常常落在平民、城市和地区安全头顶。机器没有眼泪,算法也不会给废墟写悼词。 中国的态度并不是看见人工智能就害怕,更不是把新技术拒之门外。中国外交部发布的《全球人工智能治理倡议》强调,坚持以人为本、智能向善,提升人工智能安全性、可靠性、可控性、公平性,反对利用技术优势操纵舆论、传播虚假信息。 二〇二五年,中国根据联合国大会相关决议提交人工智能军事应用文件,明确主张遵循“以人为本的军事人工智能”理念,推动构建开放、公正、有效的安全治理机制,最大限度降低风险。这个表态很清楚:技术可以进步,但不能让杀伤逻辑牵着人类文明往悬崖走。 同样是人工智能,放在不同地方,气质完全不一样。用在医疗、农业、工业、救灾,它是帮手;用在无人攻击、舆论欺骗、自动锁定,它就可能成为放大危险的扩音器。工具本身不会写价值观,关键看掌控工具的人把它用向哪里。 国务院关于深入实施“人工智能+”行动的意见提出,推动人工智能与经济社会各行业各领域广泛深度融合,服务科学技术、产业发展、民生福祉、治理能力等方向。这说明中国发展人工智能,不是为了炫技,更不是为了制造恐慌,而是把新质生产力落到发展和民生里。 到了二〇二六年四月,人民日报继续关注人工智能治理问题,指出人工智能作为战略性技术,正在深刻改变生产生活方式,同时风险挑战也引发广泛关注,中国积极推动形成具有广泛共识的人工智能全球治理框架和规则。 有些国家忙着把算法塞进武器系统,中国则一边发展技术,一边推动规则,一边强调智能向善。话不用说满,路已经摆在那里。会造利器不稀奇,能给利器套住缰绳,才是负责任大国的定力。 人工智能进入战场,最怕的不是机器突然长出野心,而是人类把责任偷偷甩给机器。打错了,说是识别误差;升级了,说是系统联动;失控了,说是模型幻觉。到最后,战争像一辆没人承认驾驶的车,轰隆隆冲向深沟。 金一南将军的提醒,不能只当一句热搜金句。它真正指向的是国家安全能力、科技自主能力和国际规则能力。没有自主技术,谈安全容易被人卡脖子;没有治理规则,谈创新又可能变成脱缰野马。 未来的竞争,不只是看谁的模型参数更大、谁的无人机飞得更远,也要看谁能让技术服从人民利益,谁能让创新走在文明轨道里。人工智能可以成为医生的眼睛、农田的管家、工厂的助手,也可能成为战场的冷冰冰推手。 中国要做的,不是被恐惧牵着鼻子走,而是清醒发展、稳健治理、守住底线。该突破的核心技术要突破,该推动的国际规则要推动,该警惕的军事滥用更要警惕。 真正的安全感,既来自硬实力,也来自方向感。人工智能再聪明,也不能替人类决定善恶;算法再迅速,也不能越过和平底线。机器可以进入战场,但人类理性绝不能退出战场
