《纽约时报》:Project Maven 将人工智能变成五角大楼的目标识别与打击系统,推动战争走向“由机器生成杀伤名单”的方向。
美国距离“人类仅负责按下批准键(rubber-stamp),而算法负责提出打击建议”的作战模式越来越接近。
据《纽约时报》报道,Maven的数据系统曾协助乌克兰部队识别数以万计的目标。
美国国防部的自主武器规范要求,在使用武力时必须保留“适当程度的人类判断”,但并未明确界定何为“适当”。
在现代无人机作战中,人工智能已经负责大部分流程,从侦测、识别到推荐打击目标。
人类往往只是在法律与程序上做最后确认,而实际决策则由算法提供。
Project Maven最初是作为情报分析工具开发的。
据报道,美国海军陆战队上校德鲁·库克尔(Drew Cukor)在推动该计划时将其包装为情报软件,但其长期目标更为进一步。
库克尔希望建立一套能够识别目标、选择最有效武器,甚至最终实现自动打击的AI系统,但他刻意未公开这一目标,以避免引发政治与采购阻力。
他也参与了设计相关合约,使帕兰提尔科技(Palantir Technologies)在竞标中处于有利位置,并在一定程度上协助其向五角大楼推销方案。
2022年俄罗斯入侵乌克兰后,Maven系统进入实战应用阶段。
美国未派遣地面部队,但提供了大量情报支援,其中Maven成为关键技术工具之一。
一支美军部队协助乌克兰建立AI目标识别系统,并由硅谷技术团队快速优化,据称在最初几个月内进行了约60次调整。
Maven系统协助乌克兰识别数以万计的目标,并在部分情况下每天摧毁数百个目标,包括俄罗斯境内目标。
这种能力提升了作战速度,同时也增加了对该系统的依赖。
在2023年10月7日之后,以色列国防军使用AI系统识别约1.5万个目标并进行打击。
有评估指出,其中约10%的AI目标可能存在误判。
即使不考虑错误,AI仍使战争变得更致命,因为它大幅提高了可打击目标的数量与速度。
这被作者视为一种治理失败:自动化被当作技术升级引入,但其战略后果往往在系统大规模杀伤开始后才被意识到。
关注俄乌局势最新进展美伊以冲突伊朗
