DeepSeek开源第三弹:V3/R1训练推理关键秘籍,核心代码仅300行
创始人
2025-02-26 11:20:21
0

金磊 发自 凹非寺

量子位 | 公众号 QbitAI

开源周的第三天, DeepSeek把训练推理V3/R1背后的“动力”给亮出来了——

DeepGEMM:一个FP8 GEMM(通用矩阵乘法)库,支持密集(dense)和混合专家(MoE)矩阵乘法运算。

我们先来简单了解一下GEMM。

GEMM,即通用矩阵乘法,是线性代数中的基本运算,是科学计算、机器学习、深度学习等领域中“常客”,也是许多高性能计算任务的核心。

但由于它的计算量往往都比较大,所以GEMM的性能优化是至关重要的一点。

而DeepSeek这次开源的DeepGEMM,依旧是保持了 “高性能+低成本”的特性,亮点如下:

  • 高性能:在Hopper架构的GPU上,DeepGEMM能够实现高达1350+FP8 TFLOPS的性能。

  • 简洁性:核心逻辑仅约 300 行代码,但性能却优于专家调优的内核。

  • 即时编译(JIT):采用完全即时编译的方式,这意味着它可以在运行时动态生成优化的代码,从而适应不同的硬件和矩阵大小。

  • 无重依赖:这个库设计得非常轻量级,没有复杂的依赖关系,可以让部署和使用变得简单。

  • 支持多种矩阵布局:支持密集矩阵布局和两种 MoE 布局,这使得它能够适应不同的应用场景,包括但不限于深度学习中的混合专家模型。

简单来说,DeepGEMM主要用于加速深度学习中的矩阵运算,特别是在大规模模型训练和推理中,它特别适用于需要高效计算资源的场景,能够显著提升计算效率。

很多网友们对这次的开源都比较“买单”,有人将DeepGEMM比作数学界的超级英雄,认为它比飞快的计算器还要快,比多项式方程还要强大。

也有人将DeepGEMM的发布比喻为量子态稳定到一个新的现实,称赞其即时编译的干净利落。

当然……也有人开始担心起自己手上的英伟达股票了……

深入了解DeepGEMM

DeepGEMM是一个专门为实现简洁高效的FP8通用矩阵乘法(GEMMs)而打造的库,它还具备细粒度缩放功能,这一设计源于DeepSeek V3。

它既能处理普通的通用矩阵乘法,也能支持MoE分组的通用矩阵乘法。

这个库是用CUDA编写的,安装的时候不需要编译,因为它会在运行时通过一个轻量级的即时编译(JIT)模块来编译所有的内核程序。

目前,DeepGEMM只支持英伟达的Hopper张量核心。

为了解决FP8张量核心在计算累积时不够精确的问题,它采用了CUDA核心的两级累积(提升)方法。

虽然DeepGEMM借鉴了CUTLASS和CuTe里的一些理念,但并没有过度依赖它们的模板或代数运算。

相反,这个库设计得很简洁,只有一个核心内核函数,代码量大概300行左右。

这使得它成为一个简洁易懂的资源,方便大家学习Hopper架构下的FP8矩阵乘法和优化技术。

尽管其设计轻巧,但DeepGEMM的性能可以匹配或超过各种矩阵形状的专家调优库。

那么具体性能如何呢?

团队在H800上使用NVCC 12.8测试了DeepSeek-V3/R1推理中可能使用的所有形状(包括预填充和解码,但没有张量并行)。

下面这张图展示的是用于密集模型的普通DeepGEMM的性能:

从测试结果来看,DeepGEMM 计算性能最高可达1358 TFLOPS, 内存宽带最高可达2668 GB/s。

加速比方面,与基于CUTLASS 3.6的优化实现相比,最高可达2.7倍。

再来看下DeepGEMM支持MoE模型的 连续布局(contiguous layout)的性能:

以及支持MoE模型 掩码布局(masked layout)的性能是这样的:

如何使用?

要想使用DeepGEMM,需先注意一下几个 依赖项,包括:

  • 必须支持Hopper架构的GPU,sm_90a。

  • Python 3.8及以上。

  • CUDA 12.3及以上(推荐12.8)。

  • PyTorch 2.1及以上。

  • CUTLASS 3.6及以上

Development代码如下:

# Submodule must be cloned gitclone --recursive git@github.com:deepseek-ai/DeepGEMM.git

# Make symbolic links for third-party (CUTLASS and CuTe) include directoriespythonsetup.py develop

# Test JIT compilationpythontests/test_jit.py

# Test all GEMM implements (normal, contiguous-grouped and masked-grouped)pythontests/test_core.py

安装代码如下:

pythonsetup.pyinstall

在上述步骤之后,您的Python项目中导入deep_gemm即可。

接口方面,对于普通的DeepGEMM,可调用deep_gemm.gemm_fp8_fp8_bf16_nt函数,支持NT格式(非转置LHS和转置RHS)。

对于分组的DeepGEMM,连续布局情况下是m_grouped_gemm_fp8_fp8_bf16_nt_contiguous;掩码布局情况下是m_grouped_gemm_fp8_fp8_bf16_nt_masked。

DeepGEMM还提供设置最大SM数量、获取TMA对齐大小等工具函数;支持环境变量,如DG_NVCC_COMPILER、DG_JIT_DEBUG等。

除此之外,DeepSeek团队还提供了几种 优化的方式,包括:

  • JIT设计:所有内核在运行时编译,无需安装时编译;支持动态选择最优块大小和流水线阶段。

  • 细粒度缩放:通过CUDA核心两层累加解决FP8精度问题;支持非2的幂次方块大小,优化SM利用率。

  • FFMA SASS交错:通过修改SASS指令的yield和reuse位,提高性能。

感兴趣的小伙伴可以戳文末GitHub链接查看详情哦~

One More Thing

英伟达这几天的股票……嗯……一直再跌:

不过在北京时间27日凌晨,英伟达2025财年第四季度业绩报告也即将出炉,我们可以期待一下它的表现~

扫码备注「DeepSeek-职业/姓名」加入群聊,一起追踪DeepSeek开源周!

DeepGEMM GitHub入口:

https://github.com/deepseek-ai/DeepGEMM

评选报名2025年值得关注的AIGC企业&产品

下一个AI“国产之光”将会是谁?

本次评选结果将于4月中国AIGC产业峰会上公布,欢迎参与!

相关内容

同比激增536.8%!AI...
文|DataEye研究院 昨日,QuestMobile发布了《2...
2025-05-09 18:45:50
英伟达开源代码大模型 基于...
5月9日,英伟达宣布开源其代码推理模型,包含32B、14B和7B三...
2025-05-09 16:47:23
美国四大AI高管国会作证:...
奥特曼、苏姿丰、史密斯等四位AI高管 北京时间5月9日,据路透社报...
2025-05-09 14:19:22
阿里巴巴开源创新大模型搜索...
5月8日,阿里巴巴开源的ZeroSearch是一种无需与真实搜索引...
2025-05-09 09:18:56
全球首个,最接近原版Dee...
新智元报道 编辑:Aeneas 好困 【新智元导读】 近日,来自...
2025-05-08 17:19:46
《AI重塑家庭教育》为家长...
近日,由中国人民大学出版社出版的《AI重塑家庭教育:十二个关键问题...
2025-05-08 09:18:13

热门资讯

原创 华... 想在竞争残酷的市场中发力,必须要带来一些激进的卖点,但是随着功能特性的提升,硬件也必须要进行给力才可...
支持 AI 扩图,华为 Pur... 2024-07-28 09:05:02作者:姚立伟 华为Pura 70 Pro手机今日推出鸿蒙Ha...
苹果macOS 15.1:允许... 苹果公司在其最新的macOS 15.1版本中,推出了一项引人注目的新功能——允许用户将Mac App...
吞噬星空维妮娜美图/高清壁纸/... 国漫女神|《吞噬星空》维妮娜美图/高清壁纸/AI手机壁纸/无水印 国漫女神|《吞噬星空》维妮娜美图...
原创 苹... 前言 IQUNIX在做好看的桌面产品上,一直都给我留下非常深刻的印象。而且早期和苹果产品的设计风格...
原创 商... 最近,各家的AI 9笔记本开始陆续登场,其实大家并不一定非选AI 9 HX 370,主要是这颗CPU...
AI智能+高效清洁!萤石RS2... 目前扫拖机器人市场的竞争非常激烈,在上下水扫拖一体机市场也出现了很多所谓的创新产品。但是对于这些产品...