DeepSeek a publié TileKernels, une bibliothèque de noyaux GPU conçue pour l'entraînement et l'inférence de grands modèles, sous licence MIT. Annoncé le 23 avril, TileKernels est écrit en TileLang, un langage spécifique au domaine basé sur Python développé par tile-ai pour des noyaux GPU haute performance. La bibliothèque comprend six catégories de noyaux, telles que le gating MoE, la quantification et le gating Engram, avec certains composants déjà déployés en interne. Cette publication marque la première divulgation publique des composants propriétaires Engram et Manifold HyperConnection de DeepSeek. La bibliothèque nécessite des GPU NVIDIA d'architecture SM90 ou SM100, le CUDA Toolkit 13.1 ou supérieur, ainsi que PyTorch 2.10 ou supérieur.
DeepSeek publie en open source TileKernels pour améliorer l'entraînement des modèles GPU
Avertissement : Le contenu proposé sur Phemex News est à titre informatif uniquement. Nous ne garantissons pas la qualité, l'exactitude ou l'exhaustivité des informations provenant d'articles tiers. Ce contenu ne constitue pas un conseil financier ou d'investissement. Nous vous recommandons vivement d'effectuer vos propres recherches et de consulter un conseiller financier qualifié avant toute décision d'investissement.
