Una investigación reciente sobre la dispersión de consultas en grandes modelos de lenguaje (LLMs) como ChatGPT ha revelado una variabilidad significativa en sus respuestas. El estudio destaca que la composición de las subconsultas cambia con el tiempo, lo que conduce a diferentes resultados. Además, la inclusión de marcas de tiempo con años ha desaparecido en su mayoría, y las fuentes utilizadas por estos modelos cambian con frecuencia, con 32 nuevas fuentes añadidas y 44 eliminadas. Asimismo, las empresas mencionadas en las respuestas rotan con cada ejecución de consulta, lo que desafía la suposición de estabilidad en los resultados de búsqueda generados por IA.