Tether Data hat QVAC Fabric LLM vorgestellt, eine neue Laufzeitumgebung und ein Fine-Tuning-Framework für die Inferenz großer Sprachmodelle (LLM). Dieses innovative Framework ermöglicht es Nutzern, LLMs auf alltäglicher Hardware wie Consumer-GPUs, Laptops und Smartphones auszuführen, zu trainieren und anzupassen, wodurch der Bedarf an High-End-Cloud-Servern oder spezialisierten NVIDIA-Systemen entfällt.
QVAC Fabric LLM erweitert das llama.cpp-Ökosystem, indem es Fine-Tuning für moderne Modelle wie LLama3, Qwen3 und Gemma3 unterstützt. Es ist mit einer breiten Palette von GPUs kompatibel, darunter solche von AMD, Intel, NVIDIA und Apple sowie mobilen Chips. Als Open-Source-Software unter der Apache-2.0-Lizenz veröffentlicht, bietet QVAC Fabric LLM plattformübergreifende Binärdateien und Adapter auf Hugging Face, die es Entwicklern ermöglichen, KI-Modelle mit minimalen Befehlen einfach anzupassen.
Tether Data startet QVAC Fabric LLM zur lokalen Anpassung von KI-Modellen
Haftungsausschluss: Die auf Phemex News bereitgestellten Inhalte dienen nur zu Informationszwecken.Wir garantieren nicht die Qualität, Genauigkeit oder Vollständigkeit der Informationen aus Drittquellen.Die Inhalte auf dieser Seite stellen keine Finanz- oder Anlageberatung dar.Wir empfehlen dringend, eigene Recherchen durchzuführen und einen qualifizierten Finanzberater zu konsultieren, bevor Sie Anlageentscheidungen treffen.
