O projeto vLLM revelou uma reformulação significativa do seu site vLLM Recipes, com o objetivo de simplificar a implantação e operação de grandes modelos de linguagem. Anunciada em 22 de abril, a plataforma atualizada apresenta uma interface amigável com respostas clicáveis para perguntas comuns, como executar modelos específicos em hardware designado para tarefas particulares. O site agora conta com uma estrutura de URL no estilo HuggingFace, permitindo acesso direto a páginas de configuração otimizadas. O renovado vLLM Recipes oferece comandos CLI `vllm serve` otimizados para vários modelos, incluindo Qwen3.6-35B-A3B e Kimi-K2.6, em múltiplas plataformas GPU como NVIDIA H100/H200/B200/B300 e AMD MI300X/MI325X/MI355X. Os usuários podem explorar configurações por provedor, com opções da Arcee AI, Baidu, ByteDance, DeepSeek, Google, Meta e Microsoft. A plataforma é totalmente compatível com o vLLM e fornece links para a documentação oficial, o repositório GitHub e uma lista detalhada de compatibilidade entre modelos e hardware.