Eine kürzliche Untersuchung der Abfrageverteilung großer Sprachmodelle (LLMs) wie ChatGPT hat eine erhebliche Variabilität in deren Antworten aufgedeckt. Die Studie zeigt, dass sich die Zusammensetzung der Unterabfragen im Laufe der Zeit ändert, was zu unterschiedlichen Ergebnissen führt. Außerdem ist die Einbeziehung von Jahreszeitstempeln größtenteils verschwunden, und die von diesen Modellen verwendeten Quellen wechseln häufig, wobei 32 neue Quellen hinzugefügt und 44 entfernt wurden. Darüber hinaus rotieren die in den Antworten genannten Unternehmen bei jeder Abfrage, was die Annahme einer Stabilität der von KI generierten Suchergebnisse infrage stellt.