Tetherは、スマートフォン、GPU、消費者向けデバイスでのAIモデルのトレーニングを可能にするBitNet LoRAフレームワークを発表しました。この新しいシステムはメモリ使用量を大幅に削減し、最大77.8%のVRAM使用量低減を実現し、モバイルデバイス上で最大130億パラメータのモデルのファインチューニングを可能にします。TetherのQVAC Fabricプラットフォームを通じて発表されたこのフレームワークは、クロスプラットフォームのAIトレーニングをサポートし、エッジAIの能力を拡大します。 QVAC Fabricのアップデートにより、AMD、Intel、AppleのGPUを含むさまざまなハードウェアおよびオペレーティングシステムでのBitNet LoRAファインチューニングがサポートされます。VulkanおよびMetalバックエンドを利用することで、フレームワークはデバイス間の互換性を確保しています。TetherのCEOであるPaolo Ardoinoは、コスト削減とAIツールへのアクセス拡大を強調し、スマートフォンやGPUなどの日常的なハードウェアで数十億パラメータのモデルを実行できるフレームワークの能力を強調しました。 BitNet LoRAフレームワークは、ハードウェア要件を低減する技術を組み合わせ、より高速なGPU推論とメモリ使用量の削減を実現しています。Tetherは、Samsung S25のようなスマートフォンで1億2500万パラメータのモデルを数分でファインチューニングするシステムの能力を実証しました。この開発により、より大きなモデルがエッジデバイスで動作可能となり、中央集権的なプラットフォームへの依存を減らし、ローカルでのデータ処理を可能にします。