Vitalik Buterin ha criticado las predicciones apocalípticas del informe "AI 2027", que sugiere que una superinteligencia artificial emergerá rápidamente y destruirá fácilmente a la humanidad. En su publicación en el blog, Buterin argumenta que tales suposiciones están exageradas. Cree que el cronograma para el desarrollo de la IA puede extenderse más allá de 2027 y enfatiza que los humanos poseen capacidades tecnológicas y defensivas potenciales en áreas como la bio-defensa, la ciberseguridad y la interferencia de la información. Buterin subraya la importancia de no subestimar la viabilidad de estrategias de defensa simétricas contra las amenazas de la IA.