Anthropic hat drei chinesische KI-Labore – DeepSeek, Moonshot und Minimax – beschuldigt, groß angelegte Distillationsangriffe auf sein Sprachmodell Claude durchgeführt zu haben. Das Unternehmen behauptet, dass diese Labore Kampagnen orchestriert haben, die über 16 Millionen Austausche über etwa 24.000 betrügerische Konten umfassten, um Claudes Fähigkeiten zu replizieren. Distillation, eine gängige Methode im KI-Training, wird problematisch, wenn sie verwendet wird, um fortgeschrittene Funktionen ohne Entwicklungskosten zu kopieren. Anthropic warnt, dass solche Aktivitäten geopolitische Risiken bergen und autoritären Regimen mit fortschrittlichen Cyberfähigkeiten ermöglichen könnten. Das Unternehmen plant, die Erkennungssysteme zu verbessern, Bedrohungsinformationen zu teilen und den Zugangskontrollen zu verschärfen, und ruft die Branche zur Zusammenarbeit auf, um diesen Bedrohungen entgegenzuwirken. Der Vorfall unterstreicht die Notwendigkeit robuster Sicherheitsmaßnahmen bei KI-Modellen, insbesondere da sie zunehmend integraler Bestandteil automatisierter Systeme in verschiedenen Sektoren, einschließlich der Kryptomärkte, werden.