A Tether lançou o framework BitNet LoRA, que permite o treinamento de modelos de IA em smartphones, GPUs e dispositivos de consumo. Este novo sistema reduz significativamente o uso de memória, com até 77,8% menos requisitos de VRAM, permitindo que os usuários ajustem modelos com até 13 bilhões de parâmetros em dispositivos móveis. O framework, anunciado através da plataforma QVAC Fabric da Tether, suporta treinamento de IA multiplataforma, ampliando as capacidades de IA na borda. A atualização do QVAC Fabric introduz suporte para o ajuste fino do BitNet LoRA em vários hardwares e sistemas operacionais, incluindo GPUs da AMD, Intel e Apple. Utilizando backends Vulkan e Metal, o framework garante compatibilidade entre dispositivos. O CEO da Tether, Paolo Ardoino, enfatizou a redução de custos e o acesso ampliado às ferramentas de IA, destacando a capacidade do framework de executar modelos com bilhões de parâmetros em hardwares comuns, como smartphones e GPUs. O framework BitNet LoRA combina técnicas para reduzir os requisitos de hardware, permitindo inferência mais rápida em GPUs e menor uso de memória. A Tether demonstrou a capacidade do sistema ajustando modelos de 125 milhões de parâmetros em smartphones como o Samsung S25 em minutos. Esse desenvolvimento permite que modelos maiores rodem em dispositivos de borda, reduzindo a dependência de plataformas centralizadas e possibilitando o processamento local de dados.