DeepSeek hat die Vorschauversion seiner V4-Serie von Open-Source-Modellen veröffentlicht, die nun unter der MIT-Lizenz auf Plattformen wie Hugging Face und ModelScope verfügbar ist. Die V4-Serie umfasst zwei MoE-Modelle: V4-Pro, das etwa 1,6 Billionen Parameter mit 49 Milliarden aktivierten pro Token aufweist, und V4-Flash, mit 284 Milliarden Parametern und 13 Milliarden aktivierten pro Token. Beide Modelle unterstützen eine Kontextlänge von bis zu 1 Million Tokens. Die neuen Modelle versprechen im Vergleich zur vorherigen Version V3.2 einen reduzierten Speicherverbrauch und geringeren Rechenaufwand bei der Verarbeitung langer Texte.