La última investigación de Anthropic destaca las significativas capacidades de ataque en cadena de los agentes de IA. En simulaciones de hackeos reales de contratos inteligentes desde 2020 hasta 2025, los modelos de IA Claude Opus 4.5, Sonnet 4.5 y GPT-5 replicaron colectivamente vulnerabilidades por un valor aproximado de 4.6 millones de dólares. Además, al escanear 2,849 contratos sin vulnerabilidades conocidas, los modelos descubrieron dos nuevas vulnerabilidades de día cero y simularon con éxito explotaciones rentables. El estudio indica que la rentabilidad de los ataques en cadena impulsados por IA se ha duplicado aproximadamente cada 1.3 meses durante el último año, demostrando que la tecnología de IA ahora es completamente capaz de explotar vulnerabilidades de forma autónoma para obtener ganancias.