德州大学研究团队从X平台搜集了百万条讯息,一类是30个字左右,热度比较高的短信息,碎片化信息。一类是全部夸大说辞,劣质标题党,之类的内容。然后用两组数据分别去投喂多个大模型。 结果大模型学习了一段时间,被喂脑残了。总读短信息的大模型,阅读分析能力从中等水平变成不及格。总读负面情绪,劣质内容信息的大模型不但发神经,还黑化。 原文是这样说的:模型呈现“剂量响应”式退化,垃圾数据占比越高能力越差。比如M1干预下,模型推理测试得分从74.9降至57.2,长文本检索得分从84.4降至52.3;退化核心是“思维跳步”,超70%错误源于此,且模型还会出现安全风险升高,自恋、精神病态等黑暗人格特征增强的问题。 关键这种脑腐症状还不可逆。 你就想想,机器都扛不住,况且大活人呢。(借个图,与内容关系不大)
