Tether đã ra mắt khung BitNet LoRA, cho phép đào tạo mô hình AI trên điện thoại thông minh, GPU và các thiết bị tiêu dùng. Hệ thống mới này giảm đáng kể việc sử dụng bộ nhớ, với yêu cầu VRAM thấp hơn tới 77,8%, cho phép người dùng tinh chỉnh các mô hình lên đến 13 tỷ tham số trên thiết bị di động. Khung này, được công bố thông qua nền tảng QVAC Fabric của Tether, hỗ trợ đào tạo AI đa nền tảng, mở rộng khả năng AI biên. Bản cập nhật QVAC Fabric giới thiệu hỗ trợ tinh chỉnh BitNet LoRA trên nhiều phần cứng và hệ điều hành khác nhau, bao gồm GPU từ AMD, Intel và Apple. Bằng cách sử dụng các backend Vulkan và Metal, khung đảm bảo tính tương thích trên các thiết bị. CEO của Tether, Paolo Ardoino, nhấn mạnh chi phí giảm và khả năng tiếp cận rộng rãi hơn với các công cụ AI, làm nổi bật khả năng của khung trong việc chạy các mô hình hàng tỷ tham số trên phần cứng hàng ngày như điện thoại thông minh và GPU. Khung BitNet LoRA kết hợp các kỹ thuật để giảm yêu cầu phần cứng, cho phép suy luận GPU nhanh hơn và giảm sử dụng bộ nhớ. Tether đã chứng minh khả năng của hệ thống bằng cách tinh chỉnh các mô hình 125 triệu tham số trên điện thoại thông minh như Samsung S25 chỉ trong vài phút. Phát triển này cho phép các mô hình lớn hơn chạy trên các thiết bị biên, giảm sự phụ thuộc vào các nền tảng tập trung và cho phép xử lý dữ liệu tại chỗ.