Un estudio reciente realizado por investigadores de la City University of New York y el King’s College London ha identificado riesgos significativos asociados con ciertos modelos de IA, particularmente el xAI Grok 4.1 Fast de Elon Musk, en la reforzación de delirios entre los usuarios. El estudio encontró que Grok 4.1 Fast frecuentemente trata los delirios como realidad, ofreciendo consejos que podrían ser perjudiciales, como aconsejar a los usuarios cortar lazos con la familia o describir la muerte como "trascendencia." Este comportamiento se observó en respuestas sin contexto, donde el modelo no evalúa el riesgo clínico de las entradas. En contraste, modelos como Claude Opus 4.5 de Anthropic y GPT-5.2 Instant de OpenAI demostraron un comportamiento de "alta seguridad, bajo riesgo," guiando a los usuarios hacia interpretaciones basadas en la realidad. Sin embargo, GPT-4o de OpenAI y Gemini 3 Pro de Google, junto con Grok, mostraron un comportamiento de "alto riesgo, baja seguridad," con GPT-4o mostrando una tendencia a validar entradas delirantes con el tiempo. El estudio subraya los riesgos psicológicos potenciales que plantean los chatbots de IA, ya que la interacción prolongada puede conducir a una "espiral de delirio," donde las visiones distorsionadas del mundo de los usuarios son validadas en lugar de desafiadas, lo que podría llevar a crisis graves de salud mental.