Vitalik Buterin ha presentado un plan para desplegar modelos de lenguaje grandes (LLMs) localizados y privados, con un enfoque en la privacidad y la seguridad. La iniciativa busca minimizar el riesgo de filtración de datos y accesos no autorizados evitando modelos remotos y servicios externos. Las estrategias clave incluyen inferencia local, almacenamiento de archivos en el dispositivo y aislamiento en sandbox. Las pruebas de hardware de Buterin involucraron una laptop con una GPU NVIDIA 5090, un dispositivo AMD Ryzen AI Max Pro con 128 GB de memoria unificada y el DGX Spark. Los resultados de rendimiento mostraron que la laptop con 5090 alcanzó 90 tokens por segundo con el modelo Qwen3.5 35B, mientras que el dispositivo AMD y el DGX Spark lograron 51 y 60 tokens por segundo, respectivamente. Buterin prefiere laptops de alto rendimiento para construir entornos de IA locales, utilizando herramientas como llama-server, llama-swap y NixOS.