DeepSeek a lancé la version préliminaire de sa série V4 de modèles open source, désormais disponible sous licence MIT sur des plateformes telles que Hugging Face et ModelScope. La série V4 comprend deux modèles MoE : V4-Pro, avec environ 1,6 trillion de paramètres dont 49 milliards activés par token, et V4-Flash, avec 284 milliards de paramètres et 13 milliards activés par token. Les deux modèles supportent une longueur de contexte allant jusqu'à 1 million de tokens. Ces nouveaux modèles promettent une réduction de l'utilisation de la mémoire et de la charge computationnelle lors du raisonnement sur de longs textes, comparé à la version précédente V3.2.