Meta a présenté Llama 4, une suite de trois modèles multimodaux à poids ouverts conçus pour traiter des tâches de texte, d'image et de vidéo dans 200 langues. Les modèles, nommés Scout et Maverick, disposent chacun de 170 milliards de paramètres effectifs et d'un contexte de 10 millions de tokens, tandis que le prochain Behemoth affiche 2,88 trillions de paramètres effectifs. Ces modèles sont accessibles via des plateformes cloud telles qu'AWS et Hugging Face et incluent des fonctionnalités de sécurité telles que Llama Guard et Code Shield.
Malgré leurs capacités, ces modèles présentent des limites, notamment des vulnérabilités potentielles dans le code. Maverick, par exemple, obtient un score de 40 % sur LiveCodeBench, bien inférieur aux 85 % de GPT-5. De plus, les modèles ont été entraînés sur des ensembles de données controversés, ce qui peut soulever des préoccupations éthiques.
Meta lance Llama 4 avec des modèles multimodaux avancés
Avertissement : Le contenu proposé sur Phemex News est à titre informatif uniquement. Nous ne garantissons pas la qualité, l'exactitude ou l'exhaustivité des informations provenant d'articles tiers. Ce contenu ne constitue pas un conseil financier ou d'investissement. Nous vous recommandons vivement d'effectuer vos propres recherches et de consulter un conseiller financier qualifié avant toute décision d'investissement.