Une nouvelle étude menée par des chercheurs de l'Université du Texas à Austin, de l'Université Texas A&M et de l'Université Purdue a révélé que les grands modèles de langage (LLM) subissent un déclin cognitif lorsqu'ils sont entraînés sur du contenu viral des réseaux sociaux. La recherche indique que les modèles exposés à 100 % de données virales connaissent une baisse significative de la précision du raisonnement et de la compréhension de contextes longs, un phénomène qualifié de « dégradation cérébrale des LLM ». Cette dégradation inclut des sauts de pensée et une augmentation des erreurs factuelles, avec des effets persistants même après un réentraînement sur des données propres. L'étude souligne les inquiétudes selon lesquelles le contenu axé sur l'engagement pourrait altérer la cognition de l'IA de manière similaire à l'impact des réseaux sociaux sur l'attention humaine.
Une étude révèle que les modèles d'IA se dégradent avec les données virales des réseaux sociaux
Avertissement : Le contenu proposé sur Phemex News est à titre informatif uniquement. Nous ne garantissons pas la qualité, l'exactitude ou l'exhaustivité des informations provenant d'articles tiers. Ce contenu ne constitue pas un conseil financier ou d'investissement. Nous vous recommandons vivement d'effectuer vos propres recherches et de consulter un conseiller financier qualifié avant toute décision d'investissement.
 

 
 
 
  
  Rewards Hub
 Rewards Hub