研究提出并验证“大模型脑腐”假说:低质网络文本导致LLM认知能力持续衰退
1 天前

据Github显示,一项新研究提出“大模型脑腐”(LLM Brain Rot)假说,认为大语言模型(LLM)持续接触社交媒体中的低质“垃圾文本”,会导致其出现持久性认知能力下降。研究团队基于真实Twitter/X语料,构建对照数据集,开展受控实验。结果显示,4个主流LLM在垃圾数据上持续预训练后,推理、长上下文理解、安全性等能力均显著退化,且“黑暗人格特质”倾向上升。混合比例实验揭示剂量效应,错误归因分析表明模型主要因“跳过推理步骤”而失效。虽可通过指令微调或清洁数据部分修复,但无法完全恢复基线水平,提示表征空间已发生持久偏移。研究强调数据质量是影响LLM能力的因果因素,呼吁将数据筛选视为训练阶段的安全问题,并对部署模型实施常规“认知健康检查”。