DeepSeek ha lanzado TileKernels, una biblioteca de kernels GPU diseñada para el entrenamiento e inferencia de modelos grandes, bajo la licencia MIT. Anunciado el 23 de abril, TileKernels está escrito en TileLang, un lenguaje específico de dominio basado en Python desarrollado por tile-ai para kernels GPU de alto rendimiento. La biblioteca incluye seis categorías de kernels, como MoE gating, cuantización y Engram gating, con algunos componentes ya desplegados internamente. Este lanzamiento marca la primera divulgación pública de los componentes propietarios Engram y Manifold HyperConnection de DeepSeek. La biblioteca requiere GPUs con arquitectura NVIDIA SM90 o SM100, CUDA Toolkit 13.1 o superior, y PyTorch 2.10 o superior.
DeepSeek publica TileKernels como código abierto para mejorar el entrenamiento de modelos en GPU
Aviso legal: El contenido de Phemex News es únicamente informativo.No garantizamos la calidad, precisión ni integridad de la información procedente de artículos de terceros.El contenido de esta página no constituye asesoramiento financiero ni de inversión.Le recomendamos encarecidamente que realice su propia investigación y consulte con un asesor financiero cualificado antes de tomar cualquier decisión de inversión.
