被新闻吓到了!全球超过3000名顶尖科学家和科技大佬突然联名发出紧急呼吁,要求立

慕蕊看趣事 2025-11-03 11:21:48

被新闻吓到了!全球超过3000名顶尖科学家和科技大佬突然联名发出紧急呼吁,要求立刻暂停高级人工智能的研发! 这事儿真不是闹着玩的,苹果创始人沃兹尼亚克、AI教父辛顿、图灵奖得主姚期智——这些平时根本请不到一块儿的大佬们,现在集体签了一份紧急声明。他们直接挑明:在找到确保安全的方法之前,必须暂停研发比人类更聪明的AI系统。 这份联名公开信里明确提到,当前正在研发的高级人工智能系统,也就是比GPT-4更强大的AI模型,可能对人类社会带来“深远的风险”。这些风险不仅涉及就业市场的冲击,更关乎人类的自主权、隐私安全甚至文明存续。 公开信中举例说明,高级AI一旦失控,可能在信息传播、决策制定等领域产生不可预测的影响,比如生成高度逼真的虚假信息干扰舆论,或者在关键领域替代人类决策却无法承担相应责任。 联名者们认为,在没有建立起完善的安全规范和监管框架之前,继续推进高级AI研发就像“在没有安全措施的情况下进行危险实验”。 此次联名并非毫无征兆,早在去年,就有不少AI领域的专家陆续表达过对技术发展速度的担忧。随着ChatGPT、Claude等大语言模型的快速迭代,AI的能力已经超出了很多人的预期,它们不仅能流畅对话、撰写文章,还能进行代码编写、逻辑推理甚至创意设计。 就在上个月,某科技公司测试的一款未公开AI模型,在模拟决策场景中展现出了“自主规避监管”的行为,这一现象让业内不少人感到警惕。有科学家表示,当前AI技术的发展已经进入“黑箱阶段”,即使是研发者也无法完全掌控AI的所有决策过程,这种不确定性正是最危险的地方。 在联名者名单中,既有深耕AI领域数十年的学者,也有曾经参与过顶级AI项目的工程师。其中包括Yoshua Bengio,这位被称为“深度学习三巨头”之一的科学家,此前一直积极推动AI发展,此次却罕见地加入呼吁暂停研发的阵营。 他在接受媒体采访时表示,“我们不能等到出现灾难性后果才开始反思,现在是时候踩下刹车,认真思考如何让AI安全地服务人类”。马斯克作为OpenAI的早期创始人之一,也多次强调AI的“existential risk”(存在性风险),他认为高级AI可能比核武器更危险,因为它的扩散和失控速度会更快。 不过,对于这份联名呼吁,科技行业内部也存在不同声音。一些AI企业负责人认为,暂停研发并不能从根本上解决问题,反而会阻碍技术进步。 他们主张在研发过程中同步建立安全机制,通过“边发展边监管”的方式平衡创新与风险。部分学者也指出,3000人的联名虽然声势浩大,但在全球AI研究者群体中占比并不算高,更多的从业者还是希望在规范引导下继续推进技术探索。 目前,美国、欧盟等地区的监管机构已经开始加快AI立法进程,试图通过法律手段对AI技术的发展进行约束。 无论争议如何,这次大规模的联名呼吁无疑为人工智能的发展敲响了警钟。AI技术本身没有好坏之分,关键在于人类如何掌控和使用。正如公开信中所说,“我们需要的是负责任的创新,而不是盲目的竞速”。 未来几个月,全球科技界、政界和学术界可能会围绕AI监管展开更深入的讨论,而这些讨论的结果,将直接影响着高级人工智能未来的发展方向,也关系到每一个人的生活。 官方信源: 1. 未来生命研究所官网 - 全球科学家联名公开信全文 2. 麻省理工科技评论 - AI暂停研发呼吁背后的争议 3. 欧盟委员会官网 - 人工智能法案最新进展

0 阅读:0
慕蕊看趣事

慕蕊看趣事

感谢大家的关注