Una investigación reciente ha descubierto una industria en auge centrada en la manipulación de modelos de IA mediante un proceso conocido como "envenenamiento". Según fuentes internas, un servicio llamado GEO permite a los usuarios pagar para que sus productos sean destacados de manera prominente en los principales modelos de IA, convirtiendo efectivamente sus anuncios en la "respuesta estándar" del modelo. Esta práctica ha dado lugar al surgimiento de numerosas empresas y plataformas dedicadas a la publicación de contenido, asegurando que su material sea referenciado y extraído por grandes modelos de IA. Estas entidades juegan un papel crítico en la focalización y manipulación de modelos de IA con datos sesgados, lo que genera preocupaciones sobre la integridad y fiabilidad de la información generada por IA.