테더(Tether)는 스마트폰, GPU 및 소비자 기기 전반에서 AI 모델 훈련을 가능하게 하는 BitNet LoRA 프레임워크를 출시했습니다. 이 새로운 시스템은 최대 77.8%까지 VRAM 요구량을 줄여 메모리 사용량을 크게 감소시키며, 사용자가 모바일 기기에서 최대 130억 개 매개변수를 가진 모델을 미세 조정할 수 있도록 합니다. 테더의 QVAC 패브릭(QVAC Fabric) 플랫폼을 통해 발표된 이 프레임워크는 크로스 플랫폼 AI 훈련을 지원하여 엣지 AI 기능을 확장합니다. QVAC 패브릭 업데이트는 AMD, 인텔, 애플의 GPU를 포함한 다양한 하드웨어 및 운영 체제에서 BitNet LoRA 미세 조정을 지원합니다. Vulkan 및 Metal 백엔드를 활용하여 프레임워크는 기기 간 호환성을 보장합니다. 테더의 CEO인 파올로 아르도이노(Paolo Ardoino)는 비용 절감과 AI 도구에 대한 접근성 확대를 강조하며, 이 프레임워크가 스마트폰과 GPU 같은 일상적인 하드웨어에서 수십억 매개변수 모델을 실행할 수 있는 능력을 부각시켰습니다. BitNet LoRA 프레임워크는 하드웨어 요구 사항을 낮추는 기술을 결합하여 더 빠른 GPU 추론과 메모리 사용량 감소를 가능하게 합니다. 테더는 삼성 S25와 같은 스마트폰에서 1억 2,500만 매개변수 모델을 몇 분 만에 미세 조정하는 시스템의 능력을 시연했습니다. 이 개발은 더 큰 모델이 엣지 기기에서 실행될 수 있게 하여 중앙 집중식 플랫폼에 대한 의존도를 줄이고 로컬 데이터 처리를 가능하게 합니다.