Tether Data ha presentado QVAC Fabric LLM, un nuevo entorno de ejecución y marco de ajuste fino para la inferencia de grandes modelos de lenguaje (LLM). Este innovador marco permite a los usuarios ejecutar, entrenar y personalizar LLMs en hardware cotidiano, incluyendo GPUs de consumo, laptops y smartphones, eliminando la necesidad de servidores en la nube de alta gama o sistemas especializados de NVIDIA. QVAC Fabric LLM mejora el ecosistema de llama.cpp al soportar el ajuste fino para modelos modernos como LLama3, Qwen3 y Gemma3. Es compatible con una amplia gama de GPUs, incluyendo las de AMD, Intel, NVIDIA y Apple, así como con chips móviles. Lanzado como software de código abierto bajo la licencia Apache 2.0, QVAC Fabric LLM ofrece binarios multiplataforma y adaptadores en Hugging Face, permitiendo a los desarrolladores personalizar fácilmente modelos de IA con comandos mínimos.