Tether ha lanzado el marco BitNet LoRA, que permite el entrenamiento de modelos de IA en smartphones, GPUs y dispositivos de consumo. Este nuevo sistema reduce significativamente el uso de memoria, con hasta un 77,8 % menos de requisitos de VRAM, permitiendo a los usuarios ajustar modelos de hasta 13 mil millones de parámetros en dispositivos móviles. El marco, anunciado a través de la plataforma QVAC Fabric de Tether, soporta el entrenamiento de IA multiplataforma, ampliando las capacidades de IA en el borde.
La actualización de QVAC Fabric introduce soporte para el ajuste fino de BitNet LoRA en diversos hardware y sistemas operativos, incluyendo GPUs de AMD, Intel y Apple. Al utilizar los backends Vulkan y Metal, el marco asegura compatibilidad entre dispositivos. El CEO de Tether, Paolo Ardoino, destacó la reducción de costos y el acceso más amplio a herramientas de IA, resaltando la capacidad del marco para ejecutar modelos de mil millones de parámetros en hardware cotidiano como smartphones y GPUs.
El marco BitNet LoRA combina técnicas para reducir los requisitos de hardware, permitiendo una inferencia más rápida en GPU y un menor uso de memoria. Tether demostró la capacidad del sistema ajustando modelos de 125 millones de parámetros en smartphones como el Samsung S25 en minutos. Este desarrollo permite que modelos más grandes funcionen en dispositivos de borde, reduciendo la dependencia de plataformas centralizadas y habilitando el procesamiento local de datos.
Tether presenta el marco BitNet LoRA para el entrenamiento de IA en dispositivos de consumo
Aviso legal: El contenido de Phemex News es únicamente informativo.No garantizamos la calidad, precisión ni integridad de la información procedente de artículos de terceros.El contenido de esta página no constituye asesoramiento financiero ni de inversión.Le recomendamos encarecidamente que realice su propia investigación y consulte con un asesor financiero cualificado antes de tomar cualquier decisión de inversión.
