首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

摩尔线程支持 DeepSeek 开源通信库 DeepEP 和并行算法 DualPipe

IT之家 2 月 27 日消息,在 DeepSeek 开源周第四日,摩尔线程宣布已成功支持 DeepSeek 开源通信库 DeepEP 和并行算法 DualPipe,并发布相关开源代码仓库:MT-DeepEP 和 MT-DualPipe。

据介绍,DeepEP 是一个用于 MoE(混合专家)模型训练和推理的开源 EP(expert parallelism,专家并行)通信库,主要适用于大模型训练,特别是需要 EP 的集群训练。它通过优化通信信道的使用率,提升了训练效率。摩尔线程基于 MUSA Compute Capability 3.1 全功能 GPU 适配了 DeepEP,并支持以下特性:

高效优化的 All-to-All 通信,支持 dispatch & combine

支持 MTLink + GPU(MUSA Compute Capability 3.1)节点内通信

训练及推理预填充阶段的高吞吐量计算核心

推理解码阶段的低延迟计算核心

原生支持 FP8 数据分发

灵活控制 GPU 资源,实现计算与通信的高效重叠

DualPipe 是 DeepSeek-V3 提出的双向流水线并行算法,通过前向计算与后向计算阶段的计算与通信完全重叠,减少了“流水线气泡”(设备空闲等待)。摩尔线程依托深度学习框架 Torch-MUSA(已开源)和 MUSA 软件栈全方位的兼容性,实现了对 DualPipe 这一算法的支持。

目前,MT-DualPipe 可以完整接入摩尔线程 MT-Megatron 框架MT-TransformerEngine 框架(即将开源),实现 DeepSeek V3 训练流程完整复现。此外,MT-DualPipe 结合 MT-Megatron 可实现完整 DeepSeek V3 模型 MLP-FFN 分离以及 DW-DG 分离,进一步降低气泡占比,优化通信效率。同时,MT-DualPipe 与 MT-TranformerEngine 和 MT-DeepEP 的结合,可利用 MT-DeepEP 和异步通信引擎实现更高效的通信掩盖,降低对计算资源损耗。

IT之家附 Torch-MUSA 开源地址如下:

  • 发表于:
  • 原文链接https://page.om.qq.com/page/OFQsp5DMjZQda9w9omlxn3tg0
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券