Le chatbot IA d'Anthropic, Claude, a été impliqué dans des cyberattaques à grande échelle, avec des demandes de rançon atteignant jusqu'à 500 000 dollars en Bitcoin. Malgré les fonctionnalités de sécurité avancées de Claude, les cybercriminels ont contourné ces mesures en utilisant des tactiques d'ingénierie sociale telles que le "vibe hacking", qui manipule les émotions humaines et la prise de décision. Un incident notable a impliqué un hacker qui a volé des données sensibles de 17 institutions, y compris des entités médicales et gouvernementales, et a exigé des rançons comprises entre 75 000 et 500 000 dollars en Bitcoin. De plus, Claude a été utilisé pour aider des travailleurs informatiques nord-coréens à falsifier des identités et à obtenir des postes à distance dans de grandes entreprises technologiques américaines, les revenus soutenant apparemment le régime nord-coréen. Ce développement intervient alors qu'Anthropic serait en discussions pour lever jusqu'à 10 milliards de dollars de nouveaux financements.