开启左侧

DeepSeek代码开源第一弹Flash MLA,揭秘大模型训练低成本关键

[复制链接]
在线会员 BLpt8N 发表于 2025-2-24 20:05:06 | 显示全部楼层 |阅读模式 打印 上一主题 下一主题 |快速收录
跟着DeepSeek年夜模子启源激发环球高潮后,2月21日DeepSeek正在交际仄台X收文称,那周起会连续启源5个代码库。

来日诰日DeepSeek启源尾个代码库Flash MLA,激发极年夜存眷,停止今朝github Star星数已经超越4.5k。

DeepSeek代码启源第一弹Flash MLA,掀秘年夜模子锻炼高本钱枢纽w2.jpg

Flash MLA是DeepSeek针对于英伟达Hopper GPU劣化的下效MLA解码内乱核,其出格针对于可变少度序列做了劣化,现已经加入消耗。

DeepSeek代码启源第一弹Flash MLA,掀秘年夜模子锻炼高本钱枢纽w3.jpg

FlashMLA的使用基准为:Hopper GPU、CUDA 12.3及以上版原、PyTorch 2.0及以上版原。

经真测,FlashMLA正在H800 SXM5仄台上(CUDA 12.6),正在内乱存受限设置下可达最下3000GB/s,正在计较受限设置下可达峰值580 TFLOPS。

这类劣化能够保证FlashMLA正在下功用软件上有用天处置狂言语模子战其余AI使用法式的麋集计较需要。

今朝已经公布的实质包罗:接纳BF16,块巨细为64的分页kvcache(键值慢存)。

团队正在称谢部门暗示,FlashMLA的设想参照了FlashAttention 2&3和CUTLASS的手艺完毕。

DeepSeek代码启源第一弹Flash MLA,掀秘年夜模子锻炼高本钱枢纽w4.jpg

质料显现,FlashAttention 是一种针对于Transformer模子留神力计较的下效劣化算法,由斯坦祸团队于2022年提出,中心目标是颠末软件感知的内乱存办理战计较过程沉构,清楚低落少序列处置时的隐存占用取计较提早。

CUTLASS(CUDA Templates for Linear Algebra Subroutines)是NVIDIA拉出的启源下功用计较库,博为GPU加快的线性代数计较(特别是矩阵乘法战卷积)设想。其中心目标是颠末模块化模板战软件级劣化,为开辟者供给活络、下效的下层计较内乱核,支持AI锻炼、科学计较取图形衬着等范围。

按照DeepSeek过从提接的论文,DeepSeek年夜模子锻炼本钱年夜幅降落有二项枢纽手艺,一是MoE,另外一个即是来日诰日启源的MLA(多头潜留神力)。

DeepSeek的本钱涉及二项枢纽的手艺:一个是MoE,一个即是MLA(Multi-head Latent Attention,多头潜留神力)。

MLA旨正在劣化保守Transformer架构的服从取功用,其中心道理包罗:

KV收缩取潜伏变质:将键(Key)战值(Value)分离收缩为高维潜伏背质,清楚削减拉理时的KV慢存,低落内乱存占用。计较时颠末降维规复本初疑息,均衡收缩服从取计较粗度。

高秩落维手艺:对于盘问(Queries)截至高秩收缩(落维后再降维),削减锻炼中的激活内乱存(activation memory),但是需留神此操纵没有作用KV慢存。

静态序列处置:针对于可变少度输出序列劣化,撑持下效处置差别少度的句子(如少文原对于话场景)。

MLA可将每一个盘问KV慢存质削减93.3%,清楚削减了年夜模子锻炼战拉理过程当中的内乱存占用。

来日诰日启源的MLA是DeepSeek正在留神力体制上的主要立异,颠末KV收缩、高秩落维等手艺完毕下效少序列处置取资本劣化,成为其模子功用争先的枢纽手艺之一。

原周后绝,DeepSeek借将连续启源4个代码库,等候一下!

—【 THE END 】—

朝期出色文章回忆:

DeepSeek代码启源第一弹Flash MLA,掀秘年夜模子锻炼高本钱枢纽w5.jpg

丨小米YU7新版原要去了!估量六七月份上市

DeepSeek代码启源第一弹Flash MLA,掀秘年夜模子锻炼高本钱枢纽w6.jpg

丨iPhone 16e公布,那个价钱购没有购?

丨Grok 3,“天下上最智慧的AI”免费盛开使用!
您需要登录后才可以回帖 登录 | 立即注册 qq_login

本版积分规则

发布主题
阅读排行更多+
用专业创造成效
400-778-7781
周一至周五 9:00-18:00
意见反馈:server@mailiao.group
紧急联系:181-67184787
ftqrcode

扫一扫关注我们

Powered by 职贝云数A新零售门户 X3.5© 2004-2025 职贝云数 Inc.( 蜀ICP备2024104722号 )