Luma AI a lancé le modèle de raisonnement multimodal UNI-1, mettant l'accent sur « moins d'effort humain, plus d'intelligence ». Annoncé le 3 avril, UNI-1 est conçu pour comprendre l'intention de l'utilisateur et collaborer à la génération de contenu au niveau des pixels. Ses principales fonctionnalités incluent la complétion de scènes basée sur le bon sens, le raisonnement spatial et le rendu de texte multilingue. Le modèle peut transformer des images de référence et générer des visuels spatiaux complexes tels que des infographies et des diagrammes 3D. Il prend également en charge la génération de vidéos et offre une assistance intelligente, avec des essais gratuits et des services pour entreprises disponibles.
Ce développement représente une avancée significative pour Luma dans le domaine de l'IA générative, visant à créer un contenu visuel plus contrôlable et logiquement cohérent. Les capacités de UNI-1 s'étendent à des évaluations culturellement conscientes et à une interface API, marquant une étape importante dans la compréhension et l'interaction avec le monde physique grâce à l'IA.
Luma AI dévoile le modèle de raisonnement multimodal UNI-1
Avertissement : Le contenu proposé sur Phemex News est à titre informatif uniquement. Nous ne garantissons pas la qualité, l'exactitude ou l'exhaustivité des informations provenant d'articles tiers. Ce contenu ne constitue pas un conseil financier ou d'investissement. Nous vous recommandons vivement d'effectuer vos propres recherches et de consulter un conseiller financier qualifié avant toute décision d'investissement.
