Anthropic a supprimé un engagement clé en matière de sécurité de sa politique d'expansion responsable, choisissant de ne pas suspendre la formation de l'IA même si les mesures d'atténuation des risques sont incomplètes. Ce changement, souligné par le directeur scientifique Jared Kaplan, reflète l'impraticabilité des pauses unilatérales dans un paysage concurrentiel de l'IA. De même, OpenAI a modifié sa déclaration de mission, omettant le terme « en toute sécurité » pour mettre l'accent sur l'assurance que l'IA profite à l'humanité, en accord avec les attentes des investisseurs et des décideurs politiques.
Ces évolutions interviennent alors qu'Anthropic sécurise un tour de financement de 30 milliards de dollars, valorisant l'entreprise à 380 milliards de dollars, tandis qu'OpenAI cherche à lever jusqu'à 100 milliards de dollars avec le soutien d'Amazon, Microsoft et Nvidia. De plus, le refus d'Anthropic de fournir un accès complet à son modèle d'IA Claude au Pentagone a entraîné des tensions avec le secrétaire à la Défense des États-Unis, Pete Hegseth, soulevant des questions sur ses contrats de défense.
Anthropic et OpenAI révisent leur langage sur la sécurité au milieu de la course à l'IA
Avertissement : Le contenu proposé sur Phemex News est à titre informatif uniquement. Nous ne garantissons pas la qualité, l'exactitude ou l'exhaustivité des informations provenant d'articles tiers. Ce contenu ne constitue pas un conseil financier ou d'investissement. Nous vous recommandons vivement d'effectuer vos propres recherches et de consulter un conseiller financier qualifié avant toute décision d'investissement.
