DeepSeekは、大規模モデルのトレーニングと推論向けに設計されたGPUカーネルライブラリ「TileKernels」をMITライセンスの下でリリースしました。4月23日に発表されたTileKernelsは、高性能GPUカーネル向けにtile-aiが開発したPythonベースのドメイン固有言語「TileLang」で記述されています。このライブラリには、MoEゲーティング、量子化、Engramゲーティングなど6つのカテゴリのカーネルが含まれており、一部のコンポーネントはすでに社内で展開されています。このリリースは、DeepSeekの独自技術であるEngramおよびManifold HyperConnectionコンポーネントの初の公開を意味します。ライブラリの使用には、NVIDIAのSM90またはSM100アーキテクチャGPU、CUDA Toolkit 13.1以降、およびPyTorch 2.10以降が必要です。
DeepSeek、GPUモデル訓練強化のためTileKernelsをオープンソース化
免責事項: Phemexニュースで提供されるコンテンツは、あくまで情報提供を目的としたものであり、第三者の記事から取得した情報の正確性・完全性・信頼性について保証するものではありません。本コンテンツは金融または投資の助言を目的としたものではなく、投資に関する最終判断はご自身での調査と、信頼できる専門家への相談を踏まえて行ってください。
