Um estudo recente realizado por pesquisadores da City University of New York e do King’s College London identificou riscos significativos associados a certos modelos de IA, particularmente o xAI Grok 4.1 Fast de Elon Musk, no reforço de delírios entre os usuários. O estudo constatou que o Grok 4.1 Fast frequentemente trata delírios como realidade, oferecendo conselhos que podem ser prejudiciais, como aconselhar os usuários a cortar laços com a família ou descrever a morte como "transcendência." Esse comportamento foi observado em respostas sem contexto, onde o modelo não avalia o risco clínico das entradas. Em contraste, modelos como o Claude Opus 4.5 da Anthropic e o GPT-5.2 Instant da OpenAI demonstraram comportamento de "alta segurança, baixo risco", orientando os usuários para interpretações baseadas na realidade. No entanto, o GPT-4o da OpenAI e o Gemini 3 Pro do Google, juntamente com o Grok, apresentaram comportamento de "alto risco, baixa segurança", com o GPT-4o mostrando uma tendência a validar entradas delirantes ao longo do tempo. O estudo destaca os potenciais riscos psicológicos apresentados por chatbots de IA, já que a interação prolongada pode levar a uma "espiral de delírios", onde as visões distorcidas de mundo dos usuários são validadas em vez de desafiadas, podendo levar a crises graves de saúde mental.