Новое исследование, проведённое учёными из Техасского университета в Остине, Техасского университета A&M и Университета Пердью, показало, что крупные языковые модели (LLM) испытывают когнитивный спад при обучении на вирусном контенте из социальных сетей. Исследование указывает, что модели, обученные на 100% вирусных данных, демонстрируют значительное снижение точности рассуждений и понимания длинных контекстов, что получило название «распад мозга LLM». Это ухудшение проявляется в пропуске мыслей и увеличении количества фактических ошибок, при этом эффекты сохраняются даже после повторного обучения на чистых данных. Исследование подчёркивает опасения, что контент, ориентированный на вовлечённость, может изменять когницию ИИ подобно тому, как социальные сети влияют на внимание человека.