El proyecto vLLM ha presentado un rediseño significativo de su sitio web vLLM Recipes, con el objetivo de simplificar el despliegue y la operación de grandes modelos de lenguaje. Anunciada el 22 de abril, la plataforma actualizada introduce una interfaz fácil de usar con respuestas clicables a preguntas comunes, como ejecutar modelos específicos en hardware designado para tareas particulares. El sitio ahora cuenta con una estructura de URL al estilo HuggingFace, que permite el acceso directo a páginas de configuración optimizadas. La renovada vLLM Recipes ofrece comandos CLI optimizados `vllm serve` para varios modelos, incluyendo Qwen3.6-35B-A3B y Kimi-K2.6, en múltiples plataformas GPU como NVIDIA H100/H200/B200/B300 y AMD MI300X/MI325X/MI355X. Los usuarios pueden explorar configuraciones por proveedor, con opciones de Arcee AI, Baidu, ByteDance, DeepSeek, Google, Meta y Microsoft. La plataforma es totalmente compatible con vLLM y proporciona enlaces a la documentación oficial, el repositorio de GitHub y una lista detallada de compatibilidad entre modelos y hardware.