Tether, Microsoft BitNet (1-bit LLM) modellerinin eğitimini ve çıkarımını optimize etmek amacıyla QVAC Fabric içinde çapraz platform BitNet LoRA ince ayar çerçevesini tanıttı. Bu yenilik, dizüstü bilgisayarlar, tüketici sınıfı GPU'lar ve akıllı telefonlar gibi tüketici cihazlarında milyar parametreli modellerin eğitilmesini ve ince ayar yapılmasını mümkün kılıyor. Özellikle, Adreno, Mali ve Apple Bionic dahil olmak üzere mobil GPU'larda BitNet modellerinin ince ayar yapılabilmesini sağlayarak mobil yapay zeka yeteneklerinde önemli bir ilerleme kaydediyor.
Çerçeve, Intel, AMD ve Apple Silicon gibi heterojen donanımları destekliyor ve NVIDIA dışı cihazlarda 1-bit LLM LoRA ince ayarını mümkün kılan ilk sistem olma özelliğine sahip. Performans testleri, mobil GPU'larda BitNet model çıkarımının CPU'lara kıyasla 2 ila 11 kat daha hızlı olduğunu ve VRAM kullanımının geleneksel 16-bit modellere göre %77,8'e kadar azaldığını gösteriyor. Tether, bu teknolojinin yüksek performanslı hesaplama gücüne ve bulut altyapısına olan bağımlılığı azaltarak yapay zeka eğitiminde merkezsizleşme ve yerelleşmeyi teşvik edebileceğini vurguluyor.
Tether, Tüketici Cihazlarında Milyar Parametreli Model Eğitimi İçin BitNet LoRA Çerçevesini Tanıttı
Sorumluluk Reddi: Phemex Haberler'de sunulan içerik yalnızca bilgilendirme amaçlıdır. Üçüncü taraf makalelerden alınan bilgilerin kalitesi, doğruluğu veya eksiksizliğini garanti etmiyoruz. Bu sayfadaki içerik finansal veya yatırım tavsiyesi niteliği taşımaz. Yatırım kararları vermeden önce kendi araştırmanızı yapmanızı ve nitelikli bir finans danışmanına başvurmanızı şiddetle tavsiye ederiz.
