Hugging Face a lancé le modèle Gemma-4-21B-REAP, qui affiche de solides performances dans les tâches de raisonnement. Le modèle, publié le 6 avril, démontre une précision améliorée dans ces tâches, selon ses développeurs. Il est optimisé pour l'efficacité, ne nécessitant que 12 Go de VRAM pour les opérations en contexte limité et 16 Go pour le contexte complet. Les développeurs invitent les membres des communautés MLX et GGUF à explorer ses capacités.
Hugging Face dévoile le modèle Gemma-4-21B-REAP avec un raisonnement amélioré
Avertissement : Le contenu proposé sur Phemex News est à titre informatif uniquement. Nous ne garantissons pas la qualité, l'exactitude ou l'exhaustivité des informations provenant d'articles tiers. Ce contenu ne constitue pas un conseil financier ou d'investissement. Nous vous recommandons vivement d'effectuer vos propres recherches et de consulter un conseiller financier qualifié avant toute décision d'investissement.
