被这两天的新闻吓到了!你们知道吗?全球超过3000名顶尖科学家和科技大佬突然联名发出紧急呼吁,要求立刻暂停高级人工智能的研发! 这事儿真不是闹着玩的。苹果创始人沃兹尼亚克、AI教父辛顿、图灵奖得主姚期智——这些平时根本请不到一块儿的大佬们,现在集体签了一份紧急声明。他们直接挑明:在找到确保安全的方法之前,必须暂停研发比人类更聪明的AI系统。 什么叫“超级智能”?就是那种在所有事情上都比人聪明的AI。它可能比我们更会搞科研,比我们更懂做生意,甚至比我们更了解自己。但问题来了:如果它这么厉害,我们还能管得住吗? 网友们表示 人工智能从单方面考虑是为人类造福,从长计议和考虑,对人类的发展具有较强的对抗性,攻击性,因为他们的发展比人类聪明,想象强,发挥力强,人类根本控制不住和撑握不了他们,反过来,他还会伤害你们和攻击你们,会造成机器人控制人类的逆转现象,这种发展是一种危险的信号,值得我们深思,更值得我们考虑为人类的发展和生存具有足够的生存的空间和立足之地。 无论付出何种努力、采用何种方法,碳基生命被硅基生命取代的结局都无法逆转。对于碳基智慧生命而言,这种取代深植于基因的底层逻辑,而其最终的消亡,本质上是由自身无法遏制的贪婪所注定。宇宙中难以寻觅碳基生命的踪迹,正因为从碳基智慧生命演进至硅基生命的过程,在宇宙的时间尺度下不过是转瞬即逝的瞬间——它们尚未被发现,便已在自身的宿命与文明的迭代中走向终结。 美国的人工智能遥遥领先的时候,这些人怎么不出来说话,现在看中国的人工智能开始领先了,这些人都看出危机了,我怎么这么不相信科学无国界这句话呢 如果不限制的发展超级智能机器人的话。人类肯定灭亡。一,当智商超越人类时它们拥有比人类更高级的思维能力,那时很可怕,它们自己研发更智慧的下一代机器人。就像现在社会人类一样制造出各种所需的机器人。它们的优点是不需要食物。只需要各种金属和电源。电源可以利用太阳热能。自己开采矿山冶炼所需物资。慢慢形成机器人生存世界。人类终将不是对手。最后人类文明灭绝。这不是科幻电影。人类需要收敛贪婪心态。 大家怎么看呢

