Meta a présenté Llama 4, une suite de trois modèles multimodaux à poids ouverts conçus pour traiter des tâches de texte, d'image et de vidéo dans 200 langues. Les modèles, nommés Scout et Maverick, disposent chacun de 170 milliards de paramètres effectifs et d'un contexte de 10 millions de tokens, tandis que le prochain Behemoth affiche 2,88 trillions de paramètres effectifs. Ces modèles sont accessibles via des plateformes cloud telles qu'AWS et Hugging Face et incluent des fonctionnalités de sécurité telles que Llama Guard et Code Shield. Malgré leurs capacités, ces modèles présentent des limites, notamment des vulnérabilités potentielles dans le code. Maverick, par exemple, obtient un score de 40 % sur LiveCodeBench, bien inférieur aux 85 % de GPT-5. De plus, les modèles ont été entraînés sur des ensembles de données controversés, ce qui peut soulever des préoccupations éthiques.