Tetherは、スマートフォン、GPU、消費者向けデバイスでのAIモデルのトレーニングを可能にするBitNet LoRAフレームワークを発表しました。この新しいシステムはメモリ使用量を大幅に削減し、最大77.8%のVRAM使用量低減を実現し、モバイルデバイス上で最大130億パラメータのモデルのファインチューニングを可能にします。TetherのQVAC Fabricプラットフォームを通じて発表されたこのフレームワークは、クロスプラットフォームのAIトレーニングをサポートし、エッジAIの能力を拡大します。
QVAC Fabricのアップデートにより、AMD、Intel、AppleのGPUを含むさまざまなハードウェアおよびオペレーティングシステムでのBitNet LoRAファインチューニングがサポートされます。VulkanおよびMetalバックエンドを利用することで、フレームワークはデバイス間の互換性を確保しています。TetherのCEOであるPaolo Ardoinoは、コスト削減とAIツールへのアクセス拡大を強調し、スマートフォンやGPUなどの日常的なハードウェアで数十億パラメータのモデルを実行できるフレームワークの能力を強調しました。
BitNet LoRAフレームワークは、ハードウェア要件を低減する技術を組み合わせ、より高速なGPU推論とメモリ使用量の削減を実現しています。Tetherは、Samsung S25のようなスマートフォンで1億2500万パラメータのモデルを数分でファインチューニングするシステムの能力を実証しました。この開発により、より大きなモデルがエッジデバイスで動作可能となり、中央集権的なプラットフォームへの依存を減らし、ローカルでのデータ処理を可能にします。
テザー、消費者向けデバイスでのAIトレーニング用BitNet LoRAフレームワークを発表
免責事項: Phemexニュースで提供されるコンテンツは、あくまで情報提供を目的としたものであり、第三者の記事から取得した情報の正確性・完全性・信頼性について保証するものではありません。本コンテンツは金融または投資の助言を目的としたものではなく、投資に関する最終判断はご自身での調査と、信頼できる専門家への相談を踏まえて行ってください。
