过去两周,DeepSeek已经成为了全球的热点。尤其是在西方世界,这个来自中国的生成式人工智能系统引发了广泛讨论。
在发布的前18天内,DeepSeek便实现了惊人的1600万次下载,这一数字几乎是竞争对手OpenAI的ChatGPT在同期下载量的两倍,充分展示了其强大的市场吸引力和用户基础。
据市场分析公司Appfigures的权威数据,DeepSeek的应用程序于1月26日首次登顶苹果App Store,并自此持续保持其全球领先的霸主地位。数据统计显示,自今年初发布以来,迅速攀升至140个国家的苹果App Store下载排行榜首位,并在美国的Android Play Store中同样占据榜首位置。
作为一个中国的AI大模型,DeepSeek能够获得这个关注度,除了其出色的性能表现以外,其低训练成本也是其吸引全球目光的关键。在今天的文章中,我们来看一下藏在DeepSeek背后的芯片和系统。
DeepSeek的架构自述
早在2024年8月,8月,DeepSeek团队发表了一篇论文,描述了它创建的一种新型负载均衡器,用于将其混合专家(MoE:mixture of experts)基础模型的元素相互连接。
DeepSeek在文章中表示,对于混合专家(MoE)模型,专家负载(expert load)不均衡将导致路由崩溃(routing collapse)或计算开销(computational overhead)增加。现有方法通常采用辅助损失(auxiliary loss)来促进负载平衡,但较大的辅助损失会在训练中引入不可忽略的干扰梯度(interference gradients),从而损害模型性能。
为了在训练过程中控制负载平衡但不产生不良梯度(undesired gradients),DeepSeek团队提出了无损平衡(Loss-Free Balancing),其特点是无辅助损失的(auxiliary-loss-free)负载平衡策略。
具体而言,在进行top-K路由决策(routing decision)之前,无损平衡将首先对每个专家的路由分数(routing scores)应用专家偏见(expert-wise bias)。根据每个专家的近期负载动态更新其偏见,无损平衡可以始终保持专家负载的均衡分布。
此外,由于无损平衡不会产生任何干扰梯度,它还提升了从MoE训练中获得的模型性能的上限。DeepSeek团队还在多达3B个参数、在多达200B个token上训练的MoE模型上验证了无损平衡的性能。实验结果表明,与传统的辅助丢包控制负载均衡策略相比,无损平衡策略既实现了更好的性能,也实现了更好的负载均衡。
图1:无损平衡根据每个训练步骤中的“偏见门控分数”(biased gating score)选择专家,并在每个训练步骤之后更新此专家偏见。
在2024年年底发布的报告《DeepSeek-V3 Technical Report》中,DeepSeek团队对其DeepSeek-V3模型的技术架构进行了深入解读,这为我们了解这家公司的技术有了更多参考。
他们在报告中直言,出于前瞻性的考虑,公司始终追求模型性能强、成本低。因此,在架构方面,DeepSeek-V3仍然采用多头潜在注意力(MLA:Multi-head Latent Attention)进行高效推理和DeepSeekMoE。而为了实现经济高效的训练,DeepSeek团队的解决方案支持FP8混合精度训练,并对训练框架进行了全面优化。在他们看来,低精度训练已成为高效训练的一种有前途的解决方案,其发展与硬件能力的进步密切相关。
图2:采用FP8数据格式的整体混合精度框架。为了清楚起见,仅说明了线性算子。
通过对FP8计算和存储的支持,DeepSeek团队实现了加速训练和减少GPU内存使用。在训练框架方面,他们设计了DualPipe算法来实现高效的流水线并行,该算法具有更少的流水线气泡,并通过计算-通信重叠(overlap)隐藏了训练过程中的大部分通信。
图3:DeepSeek-V3基本架构图。继DeepSeek-V2之后,该公司采用MLA和DeepSeekMoE进行高效推理和经济训练。
DeepSeek团队表示,这种重叠确保了随着模型的进一步扩大,只要保持恒定的计算与通信比率,公司仍然可以跨节点使用细粒度的专家(fine-grained experts),同时实现接近于零的全对全通信开销(all-to-all communication overhead)。
此外,DeepSeek团队还开发了高效的跨节点全对全通信内核,以充分利用InfiniBand(IB)和NVLink带宽。公司还对内存占用进行了精心优化,使得无需使用昂贵的张量并行即可训练DeepSeek-V3。
将这些努力结合起来,DeepSeek团队就实现了很高的训练效率。
表1:DeepSeek-V3的训练成本,假设H800的租赁价格为每GPU小时2美元。
DeepSeek团队在论文中强调,在预训练阶段,优化算法、框架和硬件的协同设计实现了每万亿个token上训练DeepSeek-V3只需要180K H800 GPU小时,也就是说,在其拥有2048个H800 GPU的集群上只需要3.7天。因此,公司的预训练阶段在不到两个月的时间内完成,花费了2664K GPU小时。加上上下文长度扩展的119K GPU小时和后训练的5K GPU小时,DeepSeek-V3完整训练仅花费278.8万GPU小时。
假设H800 GPU的租赁价格为每小时2美元,这代表着其总训练成本仅为557.6万美元。DeepSeek团队还特意强调,上述成本仅包括DeepSeek-V3的官方训练,不包括与架构、算法或数据的先前研究和消融实验相关的成本。作为对比,OpenAI老板Sam Altman表示,训练GPT-4需要超过1亿美元。
1月20日,DeepSeek推出了DeepSeek-R1模型,该模型增加了两个强化学习阶段和两个监督微调阶段,以增强模型的推理能力。DeepSeek AI对R1模型的收费比基础V3模型高出6.5倍。随后,DeepSeek发布了Janus-Pro,这是其多模态模型Janus的更新版本。新模型改进了训练策略、数据扩展和模型大小,增强了多模态理解和文本到图像的生成。
至此,DeepSeek火爆全球。
躲在DeepSeek背后的芯片
在DeepSeek横空出世之后,一些围绕着其系统和技术研究框架的讨论也遍布全网,具体到硬件方面。其极低的成本引致了整个AI芯片市场的震荡,早几天英伟达的大跌,正是这个担忧最直接的反映。
如上所述,DeepSeek表示,用于训练V3模型的集群只有256个服务器节点,每个节点有8个H800 GPU加速器,总共有2048个GPU。据nextplatform的分析师推测,这些GPU卡是英伟达H800卡的H800 SXM5版本,其FP64浮点性能上限为1万亿次浮点运算,其他方面与世界上大多数公司可以购买的80 GB版本H100卡相同。
其中,节点内的八个GPU与NVSwitch互连,以在这些GPU内存之间创建共享内存域,并且节点具有多个InfiniBand卡(可能每个GPU一个)以创建到集群中其他节点的高带宽链接。
具体到H800,这是当初英伟达应美国的出口限制需求推出的GPU。当时的美国GPU出口禁令规定主要限制了算力和带宽两个方面。其中,算力上限为4800 TOPS,带宽上限为600 GB/s。A800和H800的算力与原版相当,但带宽有所降低。
图4:H800的细节
如上所述,DeepSeek在训练中使用的是H800 SXM版本。据了解,SXM架构是一种高带宽插座式解决方案,用于将NVIDIA Tensor Core加速器连接到其专有的DGX和HGX系统。对于每一代NVIDIA Tensor Core GPU,DGX系统HGX板都配有SXM插座类型,与之匹配的GPU子卡实现了高带宽、电力输送等功能。
资料显示,专门的HGX系统板通过NVLink将8个GPU互连,实现了GPU之间的高带宽。NVLink的功能使GPU之间的数据流动速度极快,使它们能够像单个GPU野兽一样运行,无需通过PCIe或需要与CPU通信来交换数据。
NVIDIA DGX H800连接了8个SXM5 H800,通过4个NVLink交换芯片,每个GPU的带宽为400 GB/s,总双向带宽超过3.2 TB/s。每个H800 SXM GPU也通过PCI Express连接到CPU,因此8个GPU中的任何一个计算的数据都可以转发回CPU。
图5:基本的SGX/HGX to CPU框架图
过去几年,大型企业对英伟达DGX的需求大增,这是因为SXM GPU更适合规模化部署。如上所说,八个H800 GPU通过NVLink和NVSwitch互连技术完全互连。而在DGX和HGX中,8个SXM GPU的连接方式与PCIe不同;每个GPU与4个NVLink Switch芯片相连,基本上使所有的GPU作为一个大GPU运行。这种可扩展性可以通过英伟达NVLink Switch系统进一步扩展,以部署和连接256个DGX H800,创建一个GPU加速的AI工厂。
图6:基本的8 PCIe GPU to CPU框架图
外国分析师眼里的DeepSeeK
基于这些GPU和系统,能搞出这个成就,西方不少分析人士一边倒地抨击Deepseek团队,但nextplatform的分析师表示,如果你仔细阅读这篇53页的论文,就会发现,DeepSeek已经采取了各种巧妙的优化和方法来制作V3模型,他们也确实相信,这确实减少了效率低下的问题,并提高了DeepSeek在硬件上的训练和推理性能。
他们认为,DeepSeek团队训练V3基础模型所采用方法的关键创新是使用Hopper GPU上的132个流式多处理器(SM)中的20个,作为数据的通信加速器和调度器,因为训练运行会仔细检查token并从参数深度集生成模型的权重,因此数据会在集群中传递。据nextplatform推测,正如V3论文所述,这种“计算和通信之间的重叠可以隐藏计算过程中的通信延迟”,使用SM在不在同一节点的GPU之间创建实际上是L3缓存控制器和数据聚合器的东西。
按照nextplatform对其论文的分享,DeepSeek创建了自己的GPU虚拟DPU,用于执行与GPU集群中的全对全通信相关的各种类似SHARP的处理。
如上文所述,DeepSeek团队设计了DualPipe算法以实现高效的流水线并行。对此,nextplatform指出,如果DeepSeek可以将这2048个GPU上的计算效率提高到接近100%,那么集群将认为它有8192个GPU(当然缺少一些SM)运行效率不高,因为它们没有DualPipe。作为对比,OpenAI的GPT-4基础模型是在8000个Nvidia的“Ampere”A100 GPU上训练的,相当于4000个H100(差不多)。
此外,辅助无损负载平衡、FP8低精度处理、将张量核心中中间结果的高精度矩阵数学运算提升到CUDA核心上的矢量单元以保持更高精度的表象、在反向传播期间重新计算所有RMSNorm操作和重新计算所有MLA向上投影等技术也都是DeepSeek的创新点之一。
知名半导体分析机构SemiAnalysis的Dylan Patel虽然对DeepSeek团队所披露的成本有质疑。但他们也承认DeepSeek有过人之处。
SemiAnalysis表示,DeepSeek-R1能够取得与OpenAI-o1相当的成果,而o1在9月份才发布。DeepSeek为何能如此迅速地赶上?这主要是因为推理已经成为一种新的范式,与以前相比,现在推理的迭代速度更快,计算量更小,却能获得有意义的收益。作为对比,以前的模式依赖于预训练,而预训练的成本越来越高,也很难实现稳健的收益。
他们指出,新范式侧重于通过合成数据生成和现有模型后训练中的RL来实现推理能力,从而以更低的价格获得更快的收益。较低的准入门槛加上简单的优化,这让DeepSeek能够比以往更快地复制o1方法。
“R1是一个非常优秀的模型,我们对此并无异议,而且这么快就赶上了推理边缘,客观上令人印象深刻。”SemiAnalysis强调。他们总结说:
一方面,DeepSeek V3以前所未有的规模采用了多token预测(MTP:Multi-Token Prediction)技术,这些附加的注意力模块(attention modules)可以预测下几个token,而不是单个token。这提高了模型在训练过程中的性能,并可在推理过程中舍弃。这是一个算法创新的例子,它以较低的计算量提高了性能。还有一些额外的考虑因素,比如在训练中提高FP8的准确性;
另一方面,DeepSeek v3也是专家模型(experts model)的混合体,它是由许多专门从事不同领域的其他小型模型组成的大型模型。混合专家模型面临的一个难题是,如何确定将哪个token交给哪个子模型或“专家”。DeepSeek设计了一个“门控网络”(gating network),以不影响模型性能的平衡方式将token路由到合适的专家。这意味着路由选择非常高效,相对于模型的整体规模,每个token在训练过程中只需改变少量参数。这不仅提高了训练效率,还降低了推理成本;
再者,就R1而言,有了强大的基础模型(v3),它将受益匪浅。部分原因在于强化学习(RL)。
强化学习有两个重点:格式化(确保提供连贯的输出)以及有用性和无害性(确保模型有用)。在合成数据集上对模型进行微调时,推理能力出现了;
SemiAnalysis重申,MLA是DeepSeek大幅降低推理成本的关键创新技术。原因在于,与标准注意力(standard attention)相比,MLA将每次查询所需的KV缓存量减少了约93.3%。KV缓存是转换器模型中的一种内存机制,用于存储代表对话上下文的数据,从而减少不必要的计算。
对英伟达芯片的潜在影响
在文章开头我们就提到,DeepSeek爆火以后,英伟达用暴跌来回应。因为如果美国大型科技公司开始向DeepSeek学习,选择更便宜的人工智能解决方案,这可能会给Nvidia带来压力。
随后,Nvidia对DeepSeek的进展给予了积极评价。该公司在一份声明中表示,DeepSeek的进展很好地展示了AI模型的新操作方式。该公司表示,向用户提供此类AI模型需要大量Nvidia芯片。
但著名投资人、方舟投资CEO“木头姐”凯西·伍德在采访中表示,DeepSeek证明了在AI领域成功并不需要那么多钱,并且加速了成本崩溃。
Counterpoint Research人工智能首席分析师孙伟也表示,Nvidia的抛售反映了人们对人工智能发展的看法转变。她进一步指出:“DeepSeek的成功挑战了人们认为更大的模型和更强大的计算能力能够带来更好性能的信念,对Nvidia由GPU驱动的增长战略构成了威胁。”
SemiAnalysis强调,算法改进的速度太快了,这对Nvidia和GPU来说也是不利的。
美媒《财富》更是预警道,DeepSeek正在威胁英伟达的AI主导地位。
如前文所说,DeepSeek已采用性能更低、价格更便宜的芯片打造了其最新型号,这也给Nvidia带来了压力,一些人担心其他大型科技公司可能会减少对Nvidia更先进产品的需求。
AvaTrade首席市场分析师凯特·利曼(Kate Leaman)向《财富》杂志表示:“投资者担心DeepSeek与性能较弱的AI芯片配合使用的能力可能会损害英伟达在AI硬件领域的主导地位,尤其是考虑到其估值严重依赖于AI需求。”
值得一提的是,根据tomshardware的报道,DeepSeek的AI突破绕过了英伟达的CUDA,使用了类似汇编的PTX编程,这从某种程度上放大了大家对英伟达的担忧。
据介绍,Nvidia的PTX(Parallel Thread Execution:并行线程执行)是Nvidia为其GPU设计的中间指令集架构。PTX位于高级GPU编程语言(如CUDA C/C++或其他语言前端)和低级机器代码(流式汇编或SASS)之间,是一种接近金属的ISA,它将GPU公开为数据并行计算设备,因此允许细粒度优化,例如寄存器分配和线程/warp级别调整,这是CUDA C/C++和其他语言无法实现的。一旦PTX进入SASS,它就会针对特定一代的Nvidia GPU进行优化。
在训练V3模型时,DeepSeek重新配置了Nvidia的H800 GPU:在132个流式多处理器中,它分配了20个用于服务器到服务器通信,可能用于压缩和解压缩数据,以克服处理器的连接限制并加快交易速度。为了最大限度地提高性能,DeepSeek还实施了高级管道算法,可能是通过进行超精细的线程/warp级别调整来实现的。
报道指出,这些修改远远超出了标准CUDA级开发的范围,但维护起来却非常困难。
不过,晨星策略师布莱恩·科莱洛(Brian Colello)直言,DeepSeek的进入无疑给整个人工智能生态系统增加了不确定性,但这并没有改变这一运动背后的压倒性势头。他在一份报告中写道:“我们认为,人工智能GPU的需求仍然超过供应。因此,尽管更轻薄的机型可能能够以相同数量的芯片实现更大的发展,但我们仍然认为科技公司将继续购买所有他们能买到的GPU,作为这场人工智能‘淘金热’的一部分。”
英特尔前首席执行官帕特·基辛格(Pat Gelsinger)等行业资深人士也认为,像人工智能这样的应用程序可以利用它们能够访问的所有计算能力。至于DeepSeek的突破,基辛格认为这是一种将人工智能添加到大众市场中大量廉价设备中的方法。
SemiAnalysis在其报告中透露,自DeepSeek V3和R1发布以来,H100的AWS GPU价格在许多地区都有所上涨。类似的H200也更难找到。“V3推出后,H100的价格暴涨,因为GPU的货币化率开始大大提高。以更低的价格获得更多的智能意味着更多的需求。这与前几个月低迷的H100现货价格相比发生了重大转变。”SemiAnalysis说,
所以,大家认为,DeepSeek将如何发展?英伟达芯片,还能继续独霸天下吗?
参考链接
https://arxiv.org/html/2408.15664v1
https://arxiv.org/html/2412.19437v1
https://www.nextplatform.com/2025/01/27/how-did-deepseek-train-its-ai-model-on-a-lot-less-and-crippled-hardware/
https://www.lthpc.com/cms/jishufenxiang/71.html
https://semianalysis.com/2025/01/31/deepseek-debates/
https://finance.yahoo.com/news/chinese-ai-startup-deepseek-threatening-153810959.html
https://www.tomshardware.com/tech-industry/artificial-intelligence/deepseeks-ai-breakthrough-bypasses-industry-standard-cuda-uses-assembly-like-ptx-programming-instead
本文来自微信公众号:半导体行业观察 (ID:icbank),作者:编辑部
相关推荐
DeepSeek火爆全网,OpenAI首席执行官发声
俄外长:DeepSeek超越美国
“职业打手”下场!DeepSeek遭攻击烈度暴增百倍
英伟达GPU,警钟敲响
微软、Meta都说“DeepSeek不影响”,英伟达可以松口气了吗?
DeepSeek火爆英伟达股价不淡定了
一夜之间,微软、英伟达、亚马逊全部接入DeepSeek!吴恩达:中国AI正在崛起
DeepSeek什么来头,何以震动全球AI圈?
DeepSeek启示录:伟大不能被计划
DeepSeek,从追赶者到追杀者
网址: 成就DeepSeek奇迹的芯片,敲响英伟达警钟 http://m.xishuta.com/newsview132225.html