Meta ha presentado Llama 4, un conjunto de tres modelos multimodales de peso abierto diseñados para manejar tareas de texto, imagen y video en más de 200 idiomas. Los modelos, llamados Scout y Maverick, cuentan cada uno con 170 mil millones de parámetros efectivos y un contexto de 10 millones de tokens, mientras que el próximo Behemoth presume de 2.88 billones de parámetros efectivos. Estos modelos están accesibles a través de plataformas en la nube como AWS y Hugging Face e incluyen características de seguridad como Llama Guard y Code Shield. A pesar de sus capacidades, los modelos tienen limitaciones, incluyendo posibles vulnerabilidades en el código. Maverick, por ejemplo, obtiene un 40% en LiveCodeBench, significativamente inferior al 85% de GPT-5. Además, los modelos han sido entrenados con conjuntos de datos controvertidos, lo que puede plantear preocupaciones éticas.