Anthropic a révélé dans des documents judiciaires qu'elle ne peut pas contrôler ni désactiver ses modèles d'IA une fois déployés dans les environnements du Pentagone, ne disposant pas d'un « interrupteur d'arrêt » pour ces systèmes. Cette révélation intervient au milieu de litiges juridiques en cours avec le Pentagone, qui a qualifié Anthropic de risque pour la chaîne d'approvisionnement en raison de préoccupations concernant les politiques d'utilisation de la technologie de l'entreprise. Ces politiques interdisent l'utilisation de l'IA d'Anthropic dans les armes autonomes et la surveillance de masse, ce que le Pentagone considère comme restrictif.
La bataille juridique a abouti à des décisions judiciaires contradictoires : un tribunal de Washington a confirmé la désignation de risque du Pentagone, tandis qu'un tribunal de Californie l'a temporairement suspendue. Par conséquent, Anthropic est interdit de nouveaux contrats avec le Pentagone mais peut toujours servir d'autres agences gouvernementales. Pendant ce temps, l'administration Trump plaide pour le déploiement du nouveau modèle d'IA d'Anthropic, Mythos, dans les agences fédérales afin de renforcer les défenses en cybersécurité, malgré les préoccupations de sécurité du Pentagone. La prochaine audience est prévue pour le 19 mai.
Anthropic ne contrôle pas les modèles d'IA déployés au Pentagone, révèlent des documents judiciaires
Avertissement : Le contenu proposé sur Phemex News est à titre informatif uniquement. Nous ne garantissons pas la qualité, l'exactitude ou l'exhaustivité des informations provenant d'articles tiers. Ce contenu ne constitue pas un conseil financier ou d'investissement. Nous vous recommandons vivement d'effectuer vos propres recherches et de consulter un conseiller financier qualifié avant toute décision d'investissement.
