PrismML ha lanzado la serie Ternary Bonsai de modelos de lenguaje, que presenta una técnica de pesos ternarios de 1.58 bits que reduce el uso de memoria GPU a una novena parte de un modelo de 16 bits, manteniendo un alto rendimiento. La serie, que incluye modelos con 8B, 4B y 1.7B parámetros, ahora es de código abierto en Hugging Face y soporta dispositivos Apple de forma nativa. El modelo de 1.58 bits restringe los pesos de la red neuronal a tres valores: {-1, 0, +1}, mejorando las capacidades de razonamiento al eliminar conexiones redundantes.
El modelo Ternary Bonsai 8B, con un tamaño de archivo de pesos de solo 1.75 GB, alcanza una puntuación promedio en benchmarks de 75.5, superando a su predecesor de 1 bit y a modelos densos similares en densidad de inteligencia. También ofrece una mejor eficiencia energética y velocidad de inferencia, logrando 27 tokens por segundo en el iPhone 17 Pro Max con una eficiencia energética de 3 a 4 veces mejor. Estos modelos se distribuyen bajo la licencia Apache 2.0, proporcionando a los desarrolladores soluciones de IA de alto rendimiento para dispositivos edge.
PrismML presenta el modelo Bonsai ternario con 9 veces menos parámetros
Aviso legal: El contenido de Phemex News es únicamente informativo.No garantizamos la calidad, precisión ni integridad de la información procedente de artículos de terceros.El contenido de esta página no constituye asesoramiento financiero ni de inversión.Le recomendamos encarecidamente que realice su propia investigación y consulte con un asesor financiero cualificado antes de tomar cualquier decisión de inversión.
