Anthropic a accusé trois laboratoires chinois d'IA — DeepSeek, Moonshot et Minimax — de mener des attaques de distillation à grande échelle sur son modèle de langage, Claude. L'entreprise affirme que ces laboratoires ont orchestré des campagnes impliquant plus de 16 millions d'échanges via environ 24 000 comptes frauduleux pour reproduire les capacités de Claude. La distillation, une méthode courante d'entraînement en IA, devient problématique lorsqu'elle est utilisée pour reproduire des fonctionnalités avancées sans engager de coûts de développement. Anthropic met en garde contre le fait que de telles activités présentent des risques géopolitiques, pouvant potentiellement permettre à des régimes autoritaires dotés de capacités cyber avancées de se renforcer. L'entreprise prévoit d'améliorer les systèmes de détection, de partager les renseignements sur les menaces et de renforcer les contrôles d'accès, appelant à une coopération industrielle pour contrer ces menaces. Cet incident souligne la nécessité de mesures de sécurité robustes dans les modèles d'IA, surtout à mesure qu'ils deviennent essentiels aux systèmes automatisés dans divers secteurs, y compris les marchés cryptographiques.