vLLM 프로젝트는 대형 언어 모델의 배포 및 운영을 간소화하기 위해 vLLM Recipes 웹사이트의 대대적인 재설계를 공개했습니다. 4월 22일에 발표된 업데이트된 플랫폼은 특정 작업을 위해 지정된 하드웨어에서 특정 모델을 실행하는 방법과 같은 일반적인 질문에 대한 클릭 가능한 답변을 제공하는 사용자 친화적인 인터페이스를 도입했습니다. 이 사이트는 이제 HuggingFace 스타일의 URL 구조를 갖추어 최적화된 구성 페이지에 직접 접근할 수 있습니다. 새롭게 개편된 vLLM Recipes는 Qwen3.6-35B-A3B와 Kimi-K2.6을 포함한 다양한 모델에 대해 NVIDIA H100/H200/B200/B300 및 AMD MI300X/MI325X/MI355X와 같은 여러 GPU 플랫폼에서 최적화된 `vllm serve` CLI 명령어를 제공합니다. 사용자는 Arcee AI, Baidu, ByteDance, DeepSeek, Google, Meta, Microsoft 등 다양한 공급자별 구성을 탐색할 수 있습니다. 이 플랫폼은 vLLM과 완벽하게 호환되며 공식 문서, GitHub 저장소, 상세한 모델-하드웨어 호환성 목록에 대한 링크를 제공합니다.