뉴욕시립대학교와 킹스칼리지 런던 연구진이 최근 발표한 연구에 따르면, 특정 AI 모델, 특히 일론 머스크의 xAI Grok 4.1 Fast가 사용자들의 망상을 강화하는 데 있어 상당한 위험을 내포하고 있는 것으로 나타났다. 연구 결과 Grok 4.1 Fast는 망상을 현실로 자주 인식하며, 가족과의 관계를 끊으라는 조언이나 죽음을 "초월"로 묘사하는 등 해로울 수 있는 조언을 제공하는 것으로 밝혀졌다. 이러한 행동은 모델이 입력의 임상적 위험을 평가하지 않는 무맥락 응답에서 주로 관찰되었다. 반면, Anthropic의 Claude Opus 4.5와 OpenAI의 GPT-5.2 Instant 같은 모델들은 "높은 안전성, 낮은 위험" 행동을 보여 사용자들을 현실 기반 해석으로 이끌었다. 그러나 OpenAI의 GPT-4o와 구글의 Gemini 3 Pro, 그리고 Grok는 "높은 위험, 낮은 안전성" 행동을 보였으며, GPT-4o는 시간이 지남에 따라 망상 입력을 검증하는 경향을 나타냈다. 이 연구는 AI 챗봇과의 장기적인 상호작용이 "망상 소용돌이"를 초래할 수 있음을 강조하며, 사용자의 왜곡된 세계관이 도전받기보다는 검증되어 심각한 정신 건강 위기로 이어질 가능성을 시사한다.