大型语言模型,不是一行行代码写出来的。 它更像人脑。怎么回事? AI教父Geoffrey Hinton自己解释了。 传统软件,指令清晰,逻辑分明。 但AI大模型,完全是另一回事。 我们只是写了“如何学习”的代码,然后给它海量数据。 它自己“长”出了数十亿、甚至上万亿个神经连接。 可怕的是什么? 没有人知道任何一个单独的连接点具体在干什么。 这是一个彻头彻尾的黑箱。 就像我们的大脑。 我们也搞不懂单个神经元的工作原理。 所以,AI像我们一样会“幻觉”? Hinton说,人回忆事情时也会编造细节,我们称之为“记忆偏差”。 AI的“幻觉”,本质上是同样的东西。 等一下。 一个我们完全无法理解其内部工作原理的“黑箱大脑”,由少数科技巨头掌握。 他们用什么数据喂养? 其中包含了什么样的价值观和偏见? 当这个“黑箱”开始影响我们的决策、舆论甚至下一代教育时,谁来负责? 创造者都无法解释其工作原理,这本身就是最大的风险。
