DeepSeek hat die Vorschauversion seiner V4-Serie von Open-Source-Modellen veröffentlicht, die nun unter der MIT-Lizenz auf Plattformen wie Hugging Face und ModelScope verfügbar ist. Die V4-Serie umfasst zwei MoE-Modelle: V4-Pro, das etwa 1,6 Billionen Parameter mit 49 Milliarden aktivierten pro Token aufweist, und V4-Flash, mit 284 Milliarden Parametern und 13 Milliarden aktivierten pro Token. Beide Modelle unterstützen eine Kontextlänge von bis zu 1 Million Tokens. Die neuen Modelle versprechen im Vergleich zur vorherigen Version V3.2 einen reduzierten Speicherverbrauch und geringeren Rechenaufwand bei der Verarbeitung langer Texte.
DeepSeek stellt V4 Open-Source-Modelle mit 1,6 Billionen Parametern vor
Haftungsausschluss: Die auf Phemex News bereitgestellten Inhalte dienen nur zu Informationszwecken.Wir garantieren nicht die Qualität, Genauigkeit oder Vollständigkeit der Informationen aus Drittquellen.Die Inhalte auf dieser Seite stellen keine Finanz- oder Anlageberatung dar.Wir empfehlen dringend, eigene Recherchen durchzuführen und einen qualifizierten Finanzberater zu konsultieren, bevor Sie Anlageentscheidungen treffen.
