美国国防部消息! 5月1日,美国国防部突然扔下一个重要消息,高调宣布跟OpenAI、谷歌、微软、英伟达等7家顶尖AI巨头全部达成了合作协议。声明称,“这些协议加速了美军icon转型进程,旨在将美军打造为一支‘人工智能主导’的作战力量。” 你琢磨一下这个词儿:“人工智能主导”。 什么意思?就是以后战场上,扣扳机的可能不是人,拍板的也可能不是人。甚至判断对面是敌人还是老百姓,交给算法说了算。 像不像科幻片?人家早不这么想了。 就在签这份协议的前脚,五角大楼刚干了一件事,把另一家AI公司Anthropic踢出了供应商名单。理由特干脆:这家公司不肯让步,坚持要在合同里保留两条限制,不搞美国国内大规模监控,不碰全自主致命武器。 国防部的态度就一句话:不愿意?走人。 然后OpenAI火速补位,接过合同,所有条款照单全收。这个信号还不够清楚吗? 再看看谷歌。当年员工抗议Project Maven的事才过去几年?那时候几千人联名上书,说“不作恶”是底线。结果呢?现在谷歌照样在这份名单上,排得整整齐齐。 不是说科技公司没有道德底线。是资本跟政府站在一起的时候,那些有良心的工程师根本说不上话。 一家公司不签,七家排队签。你不干,有的是人干。国防部要的就是这个局面,你们自己卷,我坐收渔利。 这批协议还不是普通的商业合作。AI系统要直接接入美军6级和7级涉密网络。 你可能不知道这啥概念。那是处理最高级别情报和作战计划的网。也就是说,ChatGPT的下一代模型,未来很可能正在帮美军看卫星图、挑打击目标、推战场态势。 有人会说,这不就是个高级辅助工具吗?跟计算器有什么区别? 别天真了。 真正的AI辅助决策,跟你理解的“辅助”完全是两码事。当系统能在几秒钟内干完人类分析师几天都看不完的活儿,指挥官会本能地倾向于相信系统,而不是人。 这不是我猜的。乌克兰战场上已经验证过这事了。 美军自己的“复制者”计划就栽过大跟头。他们想用AI驱动的无人装备在台海搞“地狱景观”,结果呢?测试的时候无人艇方向舵突然失灵,无人机识别目标频频出错,还有一艘直接撞上别的船。 最讽刺的是什么? 发现问题后,美军不是放慢脚步反思,而是决定换一批供应商继续搞。因为他们没得选。五角大楼已经把“AI优势”写进了2025年《国家安全战略》,说这是美国竞争力的核心。 技术不成熟?有漏洞?那也得走下去。这不叫负责任,这叫军备竞赛。 更深层的问题来了:机器做的决定,谁来负责? 假设一个AI系统认错了目标,炸了一所学校或者一家医院。谁担责?写代码的程序员?下命令的将军?还是那个连话都不会说的算法? 没人能回答这个问题。 因为国防部压根就不想回答。他们要的是“决策优势”,至于这个优势踩在什么样的伦理风险上,那不是他们考虑的事。 2026年初,美国在“军事领域负责任使用AI峰会”上拒绝签署相关宣言。不要国际规则,不要伦理约束,连自家公司提出的安全底线也拆。 这个态度,跟当年反对杀伤人员地雷禁令一模一样。 企业能扛多久?Anthropic被踢出局后,估值不降反升,现在9000亿美元。市场认可坚守底线的价值。但问题很现实没有军方合同,你还能参与最前沿的军事AI研发吗?那些技术最后流向哪里? 清华有份报告指出,美国国防部在AI应用上长期面临采购机制陈旧、人才短缺这些老问题。花大价钱签了协议,能不能真正落地,还得打个问号。 真正让人后背发凉的,不是什么技术突破。 是一种赤裸裸的逻辑:只要贴上“国家安全”的标签,底线就可以被突破,反对者就可以被清除。 这不是技术问题,这是权力问题。 当世界上最强的军队和最有钱的科技公司绑在一起,谁都拦不住他们的时候,谁来为我们这些普通人兜底? 那些科技巨头的创始人们,当初创业的时候,想的真的是今天这个场面吗? 各位读者你们怎么看?欢迎在评论区讨论。
