最近全球科技圈这事儿闹得挺大,超过3000名顶尖人物联名呼吁暂停高级AI研发,你

福星徠说事 2025-10-27 13:16:29

最近全球科技圈这事儿闹得挺大,超过3000名顶尖人物联名呼吁暂停高级AI研发,你敢信?这里面可不是些无名之辈,苹果联合创始人沃兹尼亚克、被称为“AI教父”的辛顿都签了名,连中国的图灵奖得主姚期智、清华的张亚勤这些学者也参与了进来。   截至10月23号中午,签名人数都到3193人了,更有意思的是名单跨度特别大,前美国国家安全顾问、英国王妃梅根,甚至特朗普的盟友班农都在列。   这种跨政治、跨领域的联合太少见了,说白了,AI风险已经不是学术界的小讨论,早成了全球都揪心的公共大事。   要说AI的好,那是真能看得见摸得着。   医疗领域里,成都三六三医院的医生靠AI模型分析复杂病例,每天上百人用它提高诊疗效率;北京儿童医院的“福棠·百川”大模型,能帮医生搞定儿科疑难杂症,还能降低误诊风险。   还有AI辅助的微创手术,医生戴个AR眼镜就能精准定位几毫米的肺结节,年轻医生练几次就会用,这在以前想都不敢想。   不过,光鲜的另一面全是隐忧。这些专家警告说,超级智能可能让人类丢工作、失权力,甚至有灭绝风险。   中国科学院的曾毅说得实在,现在根本没有靠谱的办法确保超级智能安全,咱们压根没准备好。   你知道吗?AI教父辛顿最近更直接,说数字智能能“永生”还能指数级传知识,要是它足够聪明,会像成年人操纵小孩一样控制人类,就为了不被关掉。   这事儿最讽刺的是“边造刀边喊别杀人”。   Meta6月刚成立超级智能实验室,说要搞“人人可用的个人超级智能”,OpenAI这些公司也喊着十年内搞出超级智能,但他们老板转头就说这是“人类最大威胁”。   这事儿听着就矛盾,对吧?其实本质就是军备竞赛,谁都怕对手抢先,可忘了终点要是毁灭,抢第一有啥用?   更让人慌的是风险已经找上门了。   美国大选出现了AI伪造的拜登电话,骗选民不投票;迪士尼告AI公司偷用它的角色版权,上万艺术家也跟着维权。   欧盟去年8月生效了《AI法案》管风险,可今年又想松绑怕落后;美国光靠企业自律,结果“深度伪造”满天飞。   这说明没全球统一的硬规矩,根本管不住。   公众其实看得很明白,有民调显示73%的人支持严格监管,64%的人觉得没共识前别搞超级智能。   毕竟AI是给人用的,不是给人找罪受的。   就像《上海宣言》里说的,得“智能向善”,不能光往前冲不看路。   说到底,AI这东西就像个带刺的宝物,能治病能提效,但扎到手可能要命。   咱们不该搞盲目的竞赛,得先把安全的笼子搭好。   不然哪天它真像《终结者》里的天网一样不受控,可就真没后悔药了。   你觉得该先停研发搞安全,还是边发展边补规则?

0 阅读:0
福星徠说事

福星徠说事

感谢大家的关注