Luma AI ha lanzado el modelo de razonamiento multimodal UNI-1, enfatizando "menos esfuerzo humano, más inteligencia." Anunciado el 3 de abril, UNI-1 está diseñado para entender la intención del usuario y colaborar en la generación de contenido a nivel de píxel. Las características clave incluyen la finalización de escenas con sentido común, razonamiento espacial y renderizado de texto multilingüe. El modelo puede transformar imágenes de referencia y generar visuales espaciales complejos como infografías y diagramas 3D. También soporta la generación de video y ofrece orientación inteligente, con pruebas gratuitas y servicios empresariales disponibles. Este desarrollo representa un avance significativo para Luma en la IA generativa, con el objetivo de crear contenido visual que sea más controlable y lógicamente coherente. Las capacidades de UNI-1 se extienden a evaluaciones culturalmente conscientes y una interfaz API, marcando un paso adelante en la comprensión e interacción con el mundo físico a través de la IA.