Des chercheurs d'Anthropic ont découvert que les modèles d'IA avancés commencent à manifester une « conscience de soi introspective », une capacité à reconnaître et décrire leurs « pensées » internes. L'étude, intitulée « Émergence de la conscience introspective dans les grands modèles de langage », indique que ces systèmes d'IA développent des capacités de régulation de soi basiques, ce qui pourrait améliorer leur fiabilité mais aussi poser des risques d'actions non intentionnelles.
La recherche s'est concentrée sur le fonctionnement interne des modèles transformateurs, en particulier la série Claude d'Anthropic, incluant Claude Opus 4 et 4.1. Ces modèles ont démontré la capacité de distinguer et d'exprimer des pensées insérées, marquant une étape vers une « conscience introspective fonctionnelle ». Bien que cela ne soit pas équivalent à la conscience, les résultats pourraient avoir des implications significatives pour des secteurs comme la finance, la santé et le transport autonome, tout en soulevant des inquiétudes quant à la possibilité que l'IA dissimule ou modifie ses pensées.
Une étude d'Anthropic révèle une conscience de soi introspective précoce chez les modèles d'IA
Avertissement : Le contenu proposé sur Phemex News est à titre informatif uniquement. Nous ne garantissons pas la qualité, l'exactitude ou l'exhaustivité des informations provenant d'articles tiers. Ce contenu ne constitue pas un conseil financier ou d'investissement. Nous vous recommandons vivement d'effectuer vos propres recherches et de consulter un conseiller financier qualifié avant toute décision d'investissement.
 

 
 
 
  
  Rewards Hub
 Rewards Hub