Hugging Face hat das Modell Gemma-4-21B-REAP vorgestellt, das eine starke Leistung bei Aufgaben des logischen Denkens zeigt. Das Modell, das am 6. April veröffentlicht wurde, weist laut seinen Entwicklern eine verbesserte Genauigkeit bei diesen Aufgaben auf. Es ist auf Effizienz optimiert und benötigt nur 12 GB VRAM für Operationen mit begrenztem Kontext und 16 GB für den vollständigen Kontext. Die Entwickler laden Mitglieder der MLX- und GGUF-Community ein, seine Fähigkeiten zu erkunden.
Hugging Face stellt Gemma-4-21B-REAP-Modell mit verbesserter Schlussfolgerungsfähigkeit vor
Haftungsausschluss: Die auf Phemex News bereitgestellten Inhalte dienen nur zu Informationszwecken.Wir garantieren nicht die Qualität, Genauigkeit oder Vollständigkeit der Informationen aus Drittquellen.Die Inhalte auf dieser Seite stellen keine Finanz- oder Anlageberatung dar.Wir empfehlen dringend, eigene Recherchen durchzuführen und einen qualifizierten Finanzberater zu konsultieren, bevor Sie Anlageentscheidungen treffen.
