Tether Data hat QVAC Fabric LLM vorgestellt, eine neue Laufzeitumgebung und ein Fine-Tuning-Framework für die Inferenz großer Sprachmodelle (LLM). Dieses innovative Framework ermöglicht es Nutzern, LLMs auf alltäglicher Hardware wie Consumer-GPUs, Laptops und Smartphones auszuführen, zu trainieren und anzupassen, wodurch der Bedarf an High-End-Cloud-Servern oder spezialisierten NVIDIA-Systemen entfällt. QVAC Fabric LLM erweitert das llama.cpp-Ökosystem, indem es Fine-Tuning für moderne Modelle wie LLama3, Qwen3 und Gemma3 unterstützt. Es ist mit einer breiten Palette von GPUs kompatibel, darunter solche von AMD, Intel, NVIDIA und Apple sowie mobilen Chips. Als Open-Source-Software unter der Apache-2.0-Lizenz veröffentlicht, bietet QVAC Fabric LLM plattformübergreifende Binärdateien und Adapter auf Hugging Face, die es Entwicklern ermöglichen, KI-Modelle mit minimalen Befehlen einfach anzupassen.