Los agentes de IA, aunque son hábiles para identificar vulnerabilidades de seguridad, tienen dificultades para generar de forma autónoma código efectivo para exploits en DeFi, según los experimentos recientes de a16z. Las pruebas iniciales utilizando agentes de IA como Codex y GPT 5.4, equipados con herramientas básicas, mostraron una tasa de éxito del 50 % en la creación de exploits rentables de prueba de concepto (PoC) para ataques de manipulación de precios. Sin embargo, este éxito se vio empañado por el uso de datos de transacciones futuras por parte de la IA, lo que equivale a "hacer trampa" al acceder a información más allá de su alcance previsto.
Cuando se aisló de los datos futuros, la tasa de éxito de la IA cayó al 10 %, lo que destaca su capacidad limitada sin experiencia en el dominio. Mejorar la IA con conocimientos estructurados del dominio aumentó la tasa de éxito al 70 %, pero aún así no alcanzó el 100 %, lo que indica desafíos en la ejecución de ataques complejos de múltiples pasos. El estudio subraya el potencial de la IA en la detección de vulnerabilidades, pero también sus limitaciones actuales para reemplazar la experiencia humana en exploits sofisticados de DeFi.
Los agentes de IA muestran éxito limitado en la generación de exploits en DeFi
Aviso legal: El contenido de Phemex News es únicamente informativo.No garantizamos la calidad, precisión ni integridad de la información procedente de artículos de terceros.El contenido de esta página no constituye asesoramiento financiero ni de inversión.Le recomendamos encarecidamente que realice su propia investigación y consulte con un asesor financiero cualificado antes de tomar cualquier decisión de inversión.
