Проект vLLM представил значительный редизайн своего сайта vLLM Recipes, направленный на упрощение развертывания и эксплуатации больших языковых моделей. Обновленная платформа, анонсированная 22 апреля, предлагает удобный интерфейс с кликабельными ответами на часто задаваемые вопросы, например, как запускать конкретные модели на определенном оборудовании для выполнения конкретных задач. Сайт теперь использует структуру URL в стиле HuggingFace, что позволяет напрямую переходить к оптимизированным страницам конфигураций. Обновленные vLLM Recipes предлагают оптимизированные команды CLI `vllm serve` для различных моделей, включая Qwen3.6-35B-A3B и Kimi-K2.6, на различных GPU-платформах, таких как NVIDIA H100/H200/B200/B300 и AMD MI300X/MI325X/MI355X. Пользователи могут изучать конфигурации по провайдерам, среди которых Arcee AI, Baidu, ByteDance, DeepSeek, Google, Meta и Microsoft. Платформа полностью совместима с vLLM и предоставляет ссылки на официальную документацию, репозиторий GitHub и подробный список совместимости моделей с оборудованием.