A Tether lançou o framework BitNet LoRA, que permite o treinamento de modelos de IA em smartphones, GPUs e dispositivos de consumo. Este novo sistema reduz significativamente o uso de memória, com até 77,8% menos requisitos de VRAM, permitindo que os usuários ajustem modelos com até 13 bilhões de parâmetros em dispositivos móveis. O framework, anunciado através da plataforma QVAC Fabric da Tether, suporta treinamento de IA multiplataforma, ampliando as capacidades de IA na borda.
A atualização do QVAC Fabric introduz suporte para o ajuste fino do BitNet LoRA em vários hardwares e sistemas operacionais, incluindo GPUs da AMD, Intel e Apple. Utilizando backends Vulkan e Metal, o framework garante compatibilidade entre dispositivos. O CEO da Tether, Paolo Ardoino, enfatizou a redução de custos e o acesso ampliado às ferramentas de IA, destacando a capacidade do framework de executar modelos com bilhões de parâmetros em hardwares comuns, como smartphones e GPUs.
O framework BitNet LoRA combina técnicas para reduzir os requisitos de hardware, permitindo inferência mais rápida em GPUs e menor uso de memória. A Tether demonstrou a capacidade do sistema ajustando modelos de 125 milhões de parâmetros em smartphones como o Samsung S25 em minutos. Esse desenvolvimento permite que modelos maiores rodem em dispositivos de borda, reduzindo a dependência de plataformas centralizadas e possibilitando o processamento local de dados.
Tether Lança o Framework BitNet LoRA para Treinamento de IA em Dispositivos de Consumo
Aviso Legal: O conteúdo disponibilizado no Phemex News é apenas para fins informativos. Não garantimos a qualidade, precisão ou integridade das informações provenientes de artigos de terceiros. Este conteúdo não constitui aconselhamento financeiro ou de investimento. Recomendamos fortemente que você realize suas próprias pesquisas e consulte um consultor financeiro qualificado antes de tomar decisões de investimento.
