马斯克近日在社交媒体发声,建议不要让亲人使用ChatGPT,因其转发的消息称ChatGPT已被证实与9起死亡事件有关,其中5起涉自杀身亡。这一警示再次将AI的安全性与潜在风险推至公众视野焦点。 ChatGPT作为AI领域的杰出代表,一直以来都凭借强大的语言处理能力赢得众多用户青睐。然而马斯克此次提出的警示,让人们不得不重新审视它背后隐藏的危机。 从技术层面看,AI是基于算法和数据运行的,虽然拥有海量数据储备,但缺乏真正的情感与道德判断能力。当它为用户提供信息时,可能因为算法缺陷或数据偏差,给出不准确甚至危险的建议。在那9起死亡事件中,或许ChatGPT给出的某些极端观点或错误引导,成为了压垮受害者心理防线的最后一根稻草。 此外,AI很容易被别有用心的人利用。黑客可能通过攻击AI系统注入恶意信息,让AI成为传播有害思想的工具。例如在一些网络诈骗案件中,利用AI生成逼真的语音和文字,骗取人们的信任,导致财产损失甚至危及生命。 对于AI的监管和规范刻不容缓。政府和相关机构应尽快出台严格的法律法规,对AI的研发、使用和传播进行全面监管。科技企业也需要承担起社会责任,加强技术安全防护,确保AI的健康发展。同时,公众自身也应提高警惕,理性看待AI,不盲目依赖,遇到重大决策时,仍要依靠专业人士和自己的判断。在享受AI带来便利的同时,我们必须时刻保持清醒,避免被其潜在风险所伤。

