La última investigación de Anthropic destaca las significativas capacidades de ataque en cadena de los agentes de IA. En simulaciones de hackeos reales de contratos inteligentes desde 2020 hasta 2025, los modelos de IA Claude Opus 4.5, Sonnet 4.5 y GPT-5 replicaron colectivamente vulnerabilidades por un valor aproximado de 4.6 millones de dólares. Además, al escanear 2,849 contratos sin vulnerabilidades conocidas, los modelos descubrieron dos nuevas vulnerabilidades de día cero y simularon con éxito explotaciones rentables.
El estudio indica que la rentabilidad de los ataques en cadena impulsados por IA se ha duplicado aproximadamente cada 1.3 meses durante el último año, demostrando que la tecnología de IA ahora es completamente capaz de explotar vulnerabilidades de forma autónoma para obtener ganancias.
Estudio de Anthropic Revela las Potentes Capacidades de Ataque en Cadena de los Agentes de IA
Aviso legal: El contenido de Phemex News es únicamente informativo.No garantizamos la calidad, precisión ni integridad de la información procedente de artículos de terceros.El contenido de esta página no constituye asesoramiento financiero ni de inversión.Le recomendamos encarecidamente que realice su propia investigación y consulte con un asesor financiero cualificado antes de tomar cualquier decisión de inversión.
