Uma investigação recente revelou uma indústria em crescimento centrada na manipulação de modelos de IA por meio de um processo conhecido como "envenenamento". Segundo fontes internas, um serviço chamado GEO permite que os usuários paguem para que seus produtos sejam destacados em grandes modelos de IA, transformando efetivamente seus anúncios na "resposta padrão" do modelo. Essa prática levou ao surgimento de inúmeras empresas e plataformas dedicadas à publicação de conteúdo, garantindo que seu material seja referenciado e coletado por grandes modelos de IA. Essas entidades desempenham um papel crítico na segmentação e manipulação de modelos de IA com dados tendenciosos, levantando preocupações sobre a integridade e confiabilidade das informações geradas por IA.