Le projet vLLM a dévoilé une refonte majeure de son site vLLM Recipes, visant à simplifier le déploiement et l'exploitation des grands modèles de langage. Annoncée le 22 avril, la plateforme mise à jour introduit une interface conviviale avec des réponses cliquables aux questions courantes, telles que l'exécution de modèles spécifiques sur du matériel désigné pour des tâches particulières. Le site présente désormais une structure d'URL à la manière de HuggingFace, permettant un accès direct aux pages de configuration optimisées. La nouvelle version de vLLM Recipes propose des commandes CLI `vllm serve` optimisées pour divers modèles, notamment Qwen3.6-35B-A3B et Kimi-K2.6, sur plusieurs plateformes GPU telles que NVIDIA H100/H200/B200/B300 et AMD MI300X/MI325X/MI355X. Les utilisateurs peuvent explorer les configurations par fournisseur, avec des options provenant d'Arcee AI, Baidu, ByteDance, DeepSeek, Google, Meta et Microsoft. La plateforme est entièrement compatible avec vLLM et fournit des liens vers la documentation officielle, le dépôt GitHub, ainsi qu'une liste détaillée de compatibilité entre modèles et matériel.