Le modèle vidéo IA HappyHorse-1.0 a surpris en prenant la tête du classement AI Video Arena sur Artificial Analysis, dépassant Seedance 2.0. Ce modèle de texte en vidéo, apparu sans lancement officiel ni soutien d'entreprise, a obtenu un score Elo plus élevé basé sur des tests à l'aveugle réalisés par de vrais utilisateurs, surpassant des concurrents grand public comme KeLing et Tiangong. Le succès du modèle a suscité de nombreuses spéculations sur ses origines, beaucoup suggérant qu'il s'agit d'une version optimisée du modèle open-source daVinci-MagiHuman développé par Sand.ai et le Generative Artificial Intelligence Research Lab en Chine. La montée rapide de HappyHorse-1.0 a soulevé des questions sur sa capacité à surpasser des modèles établis en seulement deux semaines. Les analystes suggèrent que ce succès pourrait être dû à des optimisations spécifiques pour les scénarios d'évaluation, notamment dans la génération de portraits, qui représente une part importante des échantillons des tests à l'aveugle. Bien que la performance du modèle dans des scénarios complexes reste débattue, cette réussite signale un changement potentiel dans le paysage de la génération vidéo IA, remettant en cause la domination des modèles propriétaires et mettant en lumière les capacités croissantes des alternatives open-source.