Tether, Microsoft BitNet (1-bit LLM) modellerinin eğitimini ve çıkarımını optimize etmek amacıyla QVAC Fabric içinde çapraz platform BitNet LoRA ince ayar çerçevesini tanıttı. Bu yenilik, dizüstü bilgisayarlar, tüketici sınıfı GPU'lar ve akıllı telefonlar gibi tüketici cihazlarında milyar parametreli modellerin eğitilmesini ve ince ayar yapılmasını mümkün kılıyor. Özellikle, Adreno, Mali ve Apple Bionic dahil olmak üzere mobil GPU'larda BitNet modellerinin ince ayar yapılabilmesini sağlayarak mobil yapay zeka yeteneklerinde önemli bir ilerleme kaydediyor. Çerçeve, Intel, AMD ve Apple Silicon gibi heterojen donanımları destekliyor ve NVIDIA dışı cihazlarda 1-bit LLM LoRA ince ayarını mümkün kılan ilk sistem olma özelliğine sahip. Performans testleri, mobil GPU'larda BitNet model çıkarımının CPU'lara kıyasla 2 ila 11 kat daha hızlı olduğunu ve VRAM kullanımının geleneksel 16-bit modellere göre %77,8'e kadar azaldığını gösteriyor. Tether, bu teknolojinin yüksek performanslı hesaplama gücüne ve bulut altyapısına olan bağımlılığı azaltarak yapay zeka eğitiminde merkezsizleşme ve yerelleşmeyi teşvik edebileceğini vurguluyor.