Новое исследование, проведённое учёными из Техасского университета в Остине, Техасского университета A&M и Университета Пердью, показало, что крупные языковые модели (LLM) испытывают когнитивный спад при обучении на вирусном контенте из социальных сетей. Исследование указывает, что модели, обученные на 100% вирусных данных, демонстрируют значительное снижение точности рассуждений и понимания длинных контекстов, что получило название «распад мозга LLM». Это ухудшение проявляется в пропуске мыслей и увеличении количества фактических ошибок, при этом эффекты сохраняются даже после повторного обучения на чистых данных. Исследование подчёркивает опасения, что контент, ориентированный на вовлечённость, может изменять когницию ИИ подобно тому, как социальные сети влияют на внимание человека.
Исследование показывает, что модели ИИ ухудшаются из-за вирусных данных из социальных сетей
Отказ от ответственности: Контент, представленный на сайте Phemex News, предназначен исключительно для информационных целей.Мы не гарантируем качество, точность и полноту информации, полученной из статей третьих лиц.Содержание этой страницы не является финансовым или инвестиционным советом.Мы настоятельно рекомендуем вам провести собственное исследование и проконсультироваться с квалифицированным финансовым консультантом, прежде чем принимать какие-либо инвестиционные решения.
 

 
 
 
  
  Центр вознаграждений
 Центр вознаграждений