Hugging Face a lancé le modèle Gemma-4-21B-REAP, qui affiche de solides performances dans les tâches de raisonnement. Le modèle, publié le 6 avril, démontre une précision améliorée dans ces tâches, selon ses développeurs. Il est optimisé pour l'efficacité, ne nécessitant que 12 Go de VRAM pour les opérations en contexte limité et 16 Go pour le contexte complet. Les développeurs invitent les membres des communautés MLX et GGUF à explorer ses capacités.