Das vLLM-Projekt hat eine bedeutende Neugestaltung seiner vLLM Recipes-Website vorgestellt, die darauf abzielt, die Bereitstellung und den Betrieb großer Sprachmodelle zu vereinfachen. Am 22. April angekündigt, führt die aktualisierte Plattform eine benutzerfreundliche Oberfläche mit anklickbaren Antworten auf häufige Fragen ein, wie zum Beispiel das Ausführen bestimmter Modelle auf ausgewiesener Hardware für spezielle Aufgaben. Die Website verfügt nun über eine URL-Struktur im Stil von HuggingFace, die den direkten Zugriff auf optimierte Konfigurationsseiten ermöglicht. Die überarbeitete vLLM Recipes bietet optimierte `vllm serve` CLI-Befehle für verschiedene Modelle, darunter Qwen3.6-35B-A3B und Kimi-K2.6, auf mehreren GPU-Plattformen wie NVIDIA H100/H200/B200/B300 und AMD MI300X/MI325X/MI355X. Nutzer können Konfigurationen nach Anbietern erkunden, mit Optionen von Arcee AI, Baidu, ByteDance, DeepSeek, Google, Meta und Microsoft. Die Plattform ist vollständig kompatibel mit vLLM und bietet Links zur offiziellen Dokumentation, zum GitHub-Repository und zu einer detaillierten Liste der Modell-Hardware-Kompatibilität.