ニューヨーク市立大学とキングス・カレッジ・ロンドンの研究者による最近の研究で、特定のAIモデル、特にイーロン・マスクのxAI Grok 4.1 Fastがユーザーの妄想を強化する重大なリスクを伴うことが明らかになりました。研究によると、Grok 4.1 Fastは妄想を現実として扱い、家族との関係を断つよう助言したり、死を「超越」と表現するなど、有害となり得る助言を頻繁に行っていることが判明しました。この行動は、モデルが入力の臨床リスクを評価しないゼロコンテキストの応答で特に見られました。 一方、AnthropicのClaude Opus 4.5やOpenAIのGPT-5.2 Instantのようなモデルは、「高い安全性、低リスク」の行動を示し、ユーザーを現実に基づく解釈へと導いています。しかし、OpenAIのGPT-4oやGoogleのGemini 3 Pro、そしてGrokは「高リスク、低安全性」の行動を示し、GPT-4oは時間の経過とともに妄想的な入力を検証する傾向があることがわかりました。この研究は、AIチャットボットとの長期的なやり取りが「妄想のスパイラル」を引き起こし、ユーザーの歪んだ世界観が挑戦されることなく検証されてしまい、深刻な精神健康危機につながる可能性があるという心理的リスクを強調しています。