Tetherは、Microsoft BitNet(1ビットLLM)モデルのトレーニングと推論を最適化するために設計された、QVAC Fabric内のクロスプラットフォームBitNet LoRAファインチューニングフレームワークを導入しました。この革新により、ノートパソコン、コンシューマーグレードのGPU、スマートフォンなどの消費者向けデバイスで数十億パラメータモデルのトレーニングとファインチューニングが可能になりました。特に、Adreno、Mali、Apple Bionicを含むモバイルGPUでBitNetモデルのファインチューニングが可能となり、モバイルAI機能における大きな進歩を示しています。
このフレームワークは、Intel、AMD、Apple Siliconなどの異種ハードウェアをサポートし、非NVIDIAデバイスでの1ビットLLM LoRAファインチューニングを可能にした初の技術です。性能テストでは、モバイルGPUでのBitNetモデルの推論がCPUより2倍から11倍高速であり、VRAM使用量は従来の16ビットモデルと比較して最大77.8%削減されていることが示されています。Tetherは、この技術が高性能な計算能力やクラウドインフラへの依存を減らし、AIトレーニングの分散化とローカライズを促進すると強調しています。
テザー、消費者向けデバイスでの10億パラメータモデル訓練のためのBitNet LoRAフレームワークを発表
免責事項: Phemexニュースで提供されるコンテンツは、あくまで情報提供を目的としたものであり、第三者の記事から取得した情報の正確性・完全性・信頼性について保証するものではありません。本コンテンツは金融または投資の助言を目的としたものではなく、投資に関する最終判断はご自身での調査と、信頼できる専門家への相談を踏まえて行ってください。
