테더(Tether)는 스마트폰, GPU 및 소비자 기기 전반에서 AI 모델 훈련을 가능하게 하는 BitNet LoRA 프레임워크를 출시했습니다. 이 새로운 시스템은 최대 77.8%까지 VRAM 요구량을 줄여 메모리 사용량을 크게 감소시키며, 사용자가 모바일 기기에서 최대 130억 개 매개변수를 가진 모델을 미세 조정할 수 있도록 합니다. 테더의 QVAC 패브릭(QVAC Fabric) 플랫폼을 통해 발표된 이 프레임워크는 크로스 플랫폼 AI 훈련을 지원하여 엣지 AI 기능을 확장합니다.
QVAC 패브릭 업데이트는 AMD, 인텔, 애플의 GPU를 포함한 다양한 하드웨어 및 운영 체제에서 BitNet LoRA 미세 조정을 지원합니다. Vulkan 및 Metal 백엔드를 활용하여 프레임워크는 기기 간 호환성을 보장합니다. 테더의 CEO인 파올로 아르도이노(Paolo Ardoino)는 비용 절감과 AI 도구에 대한 접근성 확대를 강조하며, 이 프레임워크가 스마트폰과 GPU 같은 일상적인 하드웨어에서 수십억 매개변수 모델을 실행할 수 있는 능력을 부각시켰습니다.
BitNet LoRA 프레임워크는 하드웨어 요구 사항을 낮추는 기술을 결합하여 더 빠른 GPU 추론과 메모리 사용량 감소를 가능하게 합니다. 테더는 삼성 S25와 같은 스마트폰에서 1억 2,500만 매개변수 모델을 몇 분 만에 미세 조정하는 시스템의 능력을 시연했습니다. 이 개발은 더 큰 모델이 엣지 기기에서 실행될 수 있게 하여 중앙 집중식 플랫폼에 대한 의존도를 줄이고 로컬 데이터 처리를 가능하게 합니다.
테더, 소비자 기기용 AI 훈련을 위한 BitNet LoRA 프레임워크 공개
면책 조항: Phemex 뉴스에서 제공하는 콘텐츠는 정보 제공 목적으로만 제공됩니다. 제3자 기사에서 출처를 얻은 정보의 품질, 정확성 또는 완전성을 보장하지 않습니다.이 페이지의 콘텐츠는 재무 또는 투자 조언이 아닙니다.투자 결정을 내리기 전에 반드시 스스로 조사하고 자격을 갖춘 재무 전문가와 상담하시기 바랍니다.
