Tetherは、Microsoft BitNet(1ビットLLM)モデルのトレーニングと推論を最適化するために設計された、QVAC Fabric内のクロスプラットフォームBitNet LoRAファインチューニングフレームワークを導入しました。この革新により、ノートパソコン、コンシューマーグレードのGPU、スマートフォンなどの消費者向けデバイスで数十億パラメータモデルのトレーニングとファインチューニングが可能になりました。特に、Adreno、Mali、Apple Bionicを含むモバイルGPUでBitNetモデルのファインチューニングが可能となり、モバイルAI機能における大きな進歩を示しています。 このフレームワークは、Intel、AMD、Apple Siliconなどの異種ハードウェアをサポートし、非NVIDIAデバイスでの1ビットLLM LoRAファインチューニングを可能にした初の技術です。性能テストでは、モバイルGPUでのBitNetモデルの推論がCPUより2倍から11倍高速であり、VRAM使用量は従来の16ビットモデルと比較して最大77.8%削減されていることが示されています。Tetherは、この技術が高性能な計算能力やクラウドインフラへの依存を減らし、AIトレーニングの分散化とローカライズを促進すると強調しています。