Виталик Бутерин раскритиковал апокалиптические прогнозы доклада "AI 2027", в котором утверждается, что сверхинтеллект быстро появится и легко уничтожит человечество. В своем блоге Бутерин утверждает, что такие предположения преувеличены. Он считает, что сроки развития ИИ могут выйти за пределы 2027 года и подчеркивает, что у людей есть потенциальные технологические и оборонительные возможности в таких областях, как биозащита, кибербезопасность и информационное вмешательство. Бутерин акцентирует внимание на важности не недооценивать возможность симметричных стратегий защиты от угроз ИИ.