被这两天的新闻惊出一身冷汗!全球三百多名顶尖科学家、科技大佬突然联名紧急呼吁:立刻暂停高级人工智能研发!未来生命研究所发起的倡议书下,签名栏挤满了响当当的名字——“AI教父”杰弗里·辛顿、苹果联合创始人沃兹尼亚克,连咱们的姚期智院士、张亚勤教授都按了手印。能让这群平时各执一词的大佬站成统一战线,这事儿的紧迫性,远超咱们想象。 您有没有想过,为啥平时争得面红耳赤的技术派,突然集体踩刹车?看看身边AI闯的祸就明白了。去年某三甲医院试点的AI肺结节诊断系统,前阵子闹了个大乌龙——它给一位咳嗽患者标出“恶性肿瘤高风险”,评分还挺高。主治医生翻遍影像,愣是没找到典型毛刺或分叶征,最后活检结果是肺炎。您说邪乎不邪乎?这AI就像个只会背答案的学生,考对了不知道咋算的,考错了也不晓得咋错的。更要命的是,出了问题连追责都找不到抓手——总不能把代码抓去坐牢吧? 再说路上跑的自动驾驶。2024年汽车测试区曝过个案例:工程师在“停车让行”标志贴了三张指甲盖大的卡通贴纸,某品牌L4级自动驾驶车直接“瞎眼”,把禁令当成了“限速80”。测试员急打方向才没撞上路障。这要搁早晚高峰的环市路,后果不敢细想。现在满大街喊“L3普及”“无人出租车”,可您知道吗?业内管这叫“可解释性(AI输出结果的可追溯逻辑链条)”黑洞——模型能算出概率,但算不清“为啥是这个概率”。 有人可能觉得,暂停研发太保守。可咱们摸着石头过河这么多年,不就怕“石头”底下是深渊?现在的AI像个被催熟的孩子,算力堆得越高,行为越难预测。医疗AI误诊可能要人性命,金融AI误判能引发震荡,工业AI失控更是直接威胁生产线安全。这时候急着“赶进度”,和闭着眼飙车有啥区别? 暂停不是倒退,是给狂奔的AI套上安全带。就像当年核物理学家联名反对核扩散,不是反科学,是怕人类玩不转自己造的火。咱们需要的不是因噎废食,是先把“黑箱”打开,把规则定明,把责任压实——毕竟,AI的“聪明”该服务于人,而不是让人提心吊胆。 各位读者你们怎么看?欢迎在评论区讨论。
