Un informe conjunto de seguridad realizado por SlowMist y Bitget advierte sobre los posibles riesgos de seguridad asociados con el uso de agentes de IA en entornos Web3. El informe destaca que durante los procesos automatizados de desarrollo, los agentes de IA pueden acceder a archivos de configuración para depuración, análisis de registros o instalación de dependencias. Sin estrategias claras de exclusión o controles de acceso, la información sensible podría ser registrada, enviada a APIs remotas o expuesta por plugins maliciosos. El informe enfatiza que, a diferencia de los sistemas de software tradicionales, muchas operaciones en Web3, como transferencias en cadena, intercambios de tokens, adiciones de liquidez y llamadas a contratos inteligentes, son irreversibles. Una vez que una transacción es firmada y transmitida, generalmente es difícil revertirla o deshacerla. Esto amplifica los riesgos de seguridad cuando se utilizan agentes de IA para operaciones en cadena, lo que requiere una mayor vigilancia y medidas de seguridad.