Anthropic a accusé trois laboratoires chinois d'IA — DeepSeek, Moonshot et Minimax — de mener des attaques de distillation à grande échelle sur son modèle de langage, Claude. L'entreprise affirme que ces laboratoires ont orchestré des campagnes impliquant plus de 16 millions d'échanges via environ 24 000 comptes frauduleux pour reproduire les capacités de Claude. La distillation, une méthode courante d'entraînement en IA, devient problématique lorsqu'elle est utilisée pour reproduire des fonctionnalités avancées sans engager de coûts de développement.
Anthropic met en garde contre le fait que de telles activités présentent des risques géopolitiques, pouvant potentiellement permettre à des régimes autoritaires dotés de capacités cyber avancées de se renforcer. L'entreprise prévoit d'améliorer les systèmes de détection, de partager les renseignements sur les menaces et de renforcer les contrôles d'accès, appelant à une coopération industrielle pour contrer ces menaces. Cet incident souligne la nécessité de mesures de sécurité robustes dans les modèles d'IA, surtout à mesure qu'ils deviennent essentiels aux systèmes automatisés dans divers secteurs, y compris les marchés cryptographiques.
Anthropic accuse les laboratoires d'IA chinois d'attaques de distillation à grande échelle
Avertissement : Le contenu proposé sur Phemex News est à titre informatif uniquement. Nous ne garantissons pas la qualité, l'exactitude ou l'exhaustivité des informations provenant d'articles tiers. Ce contenu ne constitue pas un conseil financier ou d'investissement. Nous vous recommandons vivement d'effectuer vos propres recherches et de consulter un conseiller financier qualifié avant toute décision d'investissement.
