Hugging Face hat das Modell Gemma-4-21B-REAP vorgestellt, das eine starke Leistung bei Aufgaben des logischen Denkens zeigt. Das Modell, das am 6. April veröffentlicht wurde, weist laut seinen Entwicklern eine verbesserte Genauigkeit bei diesen Aufgaben auf. Es ist auf Effizienz optimiert und benötigt nur 12 GB VRAM für Operationen mit begrenztem Kontext und 16 GB für den vollständigen Kontext. Die Entwickler laden Mitglieder der MLX- und GGUF-Community ein, seine Fähigkeiten zu erkunden.