DeepSeek a lancé la version préliminaire de sa série V4 de modèles open source, désormais disponible sous licence MIT sur des plateformes telles que Hugging Face et ModelScope. La série V4 comprend deux modèles MoE : V4-Pro, avec environ 1,6 trillion de paramètres dont 49 milliards activés par token, et V4-Flash, avec 284 milliards de paramètres et 13 milliards activés par token. Les deux modèles supportent une longueur de contexte allant jusqu'à 1 million de tokens. Ces nouveaux modèles promettent une réduction de l'utilisation de la mémoire et de la charge computationnelle lors du raisonnement sur de longs textes, comparé à la version précédente V3.2.
DeepSeek dévoile les modèles open source V4 avec 1,6 billion de paramètres
Avertissement : Le contenu proposé sur Phemex News est à titre informatif uniquement. Nous ne garantissons pas la qualité, l'exactitude ou l'exhaustivité des informations provenant d'articles tiers. Ce contenu ne constitue pas un conseil financier ou d'investissement. Nous vous recommandons vivement d'effectuer vos propres recherches et de consulter un conseiller financier qualifié avant toute décision d'investissement.
