Eine kürzliche Untersuchung hat die Manipulation von KI-Empfehlungen durch Generative Engine Optimization (GEO) aufgedeckt, eine Praxis, bei der Unternehmen bezahlen, damit KI-Systeme ihre Produkte priorisieren. Dies wurde von einem CCTV-Journalisten enthüllt, der die Software "LiQing GEO" nutzte, um Werbeinhalte für ein nicht existierendes Smart-Armband zu fälschen, das von der KI dann als Top-Empfehlung vorgeschlagen wurde. Die von Beijing Lisi Cultural Media entwickelte Software verdeutlicht die Verwundbarkeit von KI-Modellen gegenüber solchen Manipulationen. Das GEO-Konzept, ähnlich wie traditionelles SEO, hat auf den Kapitalmärkten an Bedeutung gewonnen, wobei Unternehmen wie Bluefocus stark in GEO-Firmen investieren. Trotz des Anstiegs der Aktienkurse hat das GEO-Geschäft selbst noch keine nennenswerten Einnahmen erzielt. Unterdessen hat OpenAI begonnen, Werbung in ChatGPT anzuzeigen, was eine Verschiebung hin zur Kommerzialisierung von KI-Empfehlungen markiert. Diese Entwicklung wirft Bedenken hinsichtlich der Integrität von KI-generierten Inhalten und der potenziellen Ausnutzung des Nutzervertrauens auf.