PrismML ha lanzado la serie Ternary Bonsai de modelos de lenguaje, que presenta una técnica de pesos ternarios de 1.58 bits que reduce el uso de memoria GPU a una novena parte de un modelo de 16 bits, manteniendo un alto rendimiento. La serie, que incluye modelos con 8B, 4B y 1.7B parámetros, ahora es de código abierto en Hugging Face y soporta dispositivos Apple de forma nativa. El modelo de 1.58 bits restringe los pesos de la red neuronal a tres valores: {-1, 0, +1}, mejorando las capacidades de razonamiento al eliminar conexiones redundantes. El modelo Ternary Bonsai 8B, con un tamaño de archivo de pesos de solo 1.75 GB, alcanza una puntuación promedio en benchmarks de 75.5, superando a su predecesor de 1 bit y a modelos densos similares en densidad de inteligencia. También ofrece una mejor eficiencia energética y velocidad de inferencia, logrando 27 tokens por segundo en el iPhone 17 Pro Max con una eficiencia energética de 3 a 4 veces mejor. Estos modelos se distribuyen bajo la licencia Apache 2.0, proporcionando a los desarrolladores soluciones de IA de alto rendimiento para dispositivos edge.