Tether đã giới thiệu một khung tinh chỉnh BitNet LoRA đa nền tảng trong QVAC Fabric, được thiết kế để tối ưu hóa việc đào tạo và suy luận các mô hình Microsoft BitNet (LLM 1-bit). Đổi mới này cho phép đào tạo và tinh chỉnh các mô hình có hàng tỷ tham số trên các thiết bị tiêu dùng như laptop, GPU cấp tiêu dùng và điện thoại thông minh. Đáng chú ý, nó cho phép các mô hình BitNet được tinh chỉnh trên các GPU di động, bao gồm Adreno, Mali và Apple Bionic, đánh dấu một bước tiến quan trọng trong khả năng AI di động. Khung này hỗ trợ phần cứng đa dạng, bao gồm Intel, AMD và Apple Silicon, và là khung đầu tiên hỗ trợ tinh chỉnh LoRA LLM 1-bit trên các thiết bị không phải NVIDIA. Các bài kiểm tra hiệu suất cho thấy việc suy luận mô hình BitNet trên GPU di động nhanh hơn từ 2 đến 11 lần so với CPU, với mức sử dụng VRAM giảm tới 77,8% so với các mô hình 16-bit truyền thống. Tether nhấn mạnh rằng công nghệ này có thể giảm sự phụ thuộc vào sức mạnh tính toán cao cấp và hạ tầng đám mây, thúc đẩy phân quyền và địa phương hóa trong đào tạo AI.