首页| 论坛| 搜索| 消息
主题:华为放出「准万亿级MoE推理」大招,两大杀手级优化技术直接开源
爱我中华发表于 2025-11-30 13:40
加权排序、结合 APC 优先匹配以及基于负载与预期处理时间的节点选择,Prefill 调度器实现对长短请求的动态平衡以及对上游节点的精准匹配,达到提升吞吐、降低等待和避免过载的效果。

基于负载与等待时间的批处理请求
创新 6:结合主从调度与共享内存的数据聚合机制,在多 worker 架构下实现全局一致的调度决策与低开销的性能同步,确保系统高可用性与扩展性。

分布式架构优化
Omni Proxy 的六大创新点不是零散的功能补丁,而是进行了一次系统性整合升级,打造出一套面向超大规模 MoE 推理的高性能调度基础设施,让模型在推理链路中保持可控的延迟和稳定的吞吐。
全栈推理加速体系
至于推理加速套件,同样不是简单堆叠若干优化模块,而是将推理的核心瓶颈逐层重构:API Server 与 Scale Out 能力让推理服务在昇腾集群中顺畅扩展;序列均衡调度确保不同长度、不同阶段的请求在集群内合理分配,避免出现局部节点拥堵。模型部署侧支持 DeepSeek、Qwen、openPangu 等不同体系、不同架构的大模型,兼容性良好;Omni Placement 进一步瞄准 MoE 推理最棘手的问题之一 —— 专家放置与负载均衡,通过 Layer-wise 与 Uneven 机制实现不同层、非均匀分布的大规模专家的高效调度。MTP 与 Fusion Operator,前者提高多 token 并行生成能力,后者通过算子融合减少冗余计算、提升执行效率。
可以看到,从服务扩展、任务调度、专家管理到算子加速,这些组件共同构筑起支撑超大规模 MoE 推理的核心加速体系。

推理加速套件
进一步地,这些推理加速套件连同 Omni Proxy 一起,将并行策略、调度决策、节点通信等分散的环节整合进同一套系统栈,让原本复杂而碎片化的流程被编织成一个真正可落地的推理体系,为昇腾硬件承载准万亿 MoE 推理提供了关键的软件支撑。
不过,框架层面的协同优化只是完成了第一步,想要继续压榨推理潜力,算子层面的创新同样不可缺少。
AMLA 将昇腾硬件 FLOPS 利用率推至 86%
对于准万亿参数的 MoE 模型,推理性能的高低,关键在于芯片算力能否充分释放、算子是否贴合芯片结构、数据流是否高效、通信开销是否构成瓶颈。这些都将直接影响推理的单 token 成本,并进一步决定推理链路的稳定性与可扩展性。
在昇腾硬件上,高效软硬件协同的关键是 AMLA(Ascend MLA)。作为超大规模 MoE 推理极致性能的一大支点,其算力利用率最高可达 86%,这在推理场景下是绝无仅有的。
作为一种「以加代乘」的高性能 MLA 算子,AMLA 是昇腾体系中极具代表性的底层创新。通过从数学层面对计算逻辑进行解构,让原本受限的计算在昇腾架构上获得了更加贴合的执行方式。

论文地址:https://arxiv.org/pdf/2509.25224
作为大语言模型的核心,注意力机制在处理不断扩展的超长上下文时面临着越来越大的计算开销与内存压力。为此,DeepSeek 采用的多头潜变量注意力(MLA)方法可以在大幅压缩 KV 缓存的同时保持模型精度。并且,该方法将注意力计算从访存密集转向计算密集,从而非常契合昇腾这类强调高 FLOPS 密度与高能效的硬件。
不过,直接实现的 MLA 受限于巨大输出张量的反复搬运和异构计算单元无法并行利用这两大瓶颈,导致算力无法充分释放。FlashMLA 等更优方案虽可以提升 FLOPS,但因 KV 缓存的重复搬运引入了额外开销。要想 MLA 真正在昇腾硬件上跑满,需要在算子级的数据组织与流水化执行方面有所突破。
此次,AMLA 带来了两项关键创新,在数值 Rescaling 和算子流水化两方面同时发力,让注意力算子在昇腾硬件上具备高效跑满的可能。
首先,AMLA 提出了一种基于 FlashAttention 的全新算法,利用 FP32 和 INT32 在二进制上的对应关系,将原本需要大量浮点乘法的步骤改成只用更轻量的整数加法来完成,从算法层面减少了计算开销以及数据搬运。需要指出的是,它不是对某几个 kernel 做局部优化,而是通过重新构造浮点运算,把乘法拆解并映射为更适合芯片执行的加法模式。完整的 AMLA 算法实现如下所示:

在 FlashAttention 的 Rescaling 步骤中,通常需要读取 FP32 格式的输出块并乘以缩放因子,再写回 GM(全局内存)。这一过程须将数据从 GM 搬运至 UB(向量缓冲区) 进行计算。AMLA 创新性地将这一更新过程利用代替,与此同时,这一操作可转化为对 x 的整数表示的加法运算。这种变换允许使用昇腾硬件支持的原子加法指令,直接在 GM 中完成输出张量的更新。这彻底消除了中间张量在 GM 与 UB 之间的往返搬运,显著降低了访存延迟。


基线 MLA 与 AMLA 的流程对比。
在以加代乘之外,AMLA 又设计了一套结合预加载流水线(Preload Pipeline)和层级分块的执行策略。前者通过将计算任务解耦,使负责矩阵运算的 Cube 核与负责 Softmax / 归一化的 Vector 核能够并行工作。结合预加载机制,确保 Cube 核始终处于饱和计算状态(Cube-bound),避免因等待 Vector 核处理而产生的流水线气泡。在 Cube 核内部,AMLA 引入了多级分块策略。通过细粒度的数据切分,实现了数据从高层存储向寄存器搬运的过程与实际计算过程的完全重叠。这种双层流水线优化确保了数据流的连续性,最大化了 FLOPS 利用率。

AMLA 的预加载流水架构
AMLA 的实测结果进一步印证了其含金量,在昇腾硬件上跑出了最高 614 TFLOPS 的性能,算力利用率达到理论峰值的 86.8%,远高于当前最好的开源 FlashMLA(在 NVIDIA H800 SXM5 上算力利用率约 66.7%)。

以往大模型推理的天花板往往受限于硬件实际可用算力,而 AMLA 抬升了芯片的性能上限,打破了行业长期停留在 50% 以下的利用率瓶颈,使得昇腾硬件更有效地支撑大模型的推理需求。硬件利用率的提升也将进一步打开系统层面、框架层面乃至模型层面的优化空间,提供更强的可持续优化与扩展潜力。
至此,围绕系统性推理加速、全链路智能调度与底层算子优化,华为打出了一套面向超大规模 MoE 推理的组合拳。写在最后
为了让超大规模 MoE 模型的部署不再是业界难题,华为在昇腾硬件上祭出了准万亿参数 openPangu-Ultra 与昇腾亲和加速技术的最佳实践,并在框架层面、调度层面和算子层面进行了一系列技术创新。
其中昇腾亲和加速技术在框架层面提供适配 vLLM、SGLang 等的加速器以及多个加速套件,Omni Proxy 带来了更稳更快的智能调度,AMLA 通过算子优化提升硬件算力利用率。这些技术的组合让准万亿参数 MoE 推理在成本、性能与稳定性之间找到可落地的平衡点,并为其迈向商业可行性奠定了基础。
如今,尽管 Scaling Laws 的边际收益正在放缓,但模型能力仍在上探。同时,推理效率的底座也在系统、算法与硬件协同优化下不断加固。模型能力与推理效率的双向提升让大模型加速走向产业化落地阶段。
随着大模型的价值判断逐步从「能否训练」转向「能否以可控成本长期运行」,行业正在经历一场由推理效率驱动的结构性重构。而 openPangu-Ultra 与昇腾亲和加速技术的结合,为这种重构给出了一个清晰的范本。
下一页上一页  (2/3)
回帖(10):
10 # z3960
12-01 15:38
了解详情
9 # z3960
12-01 15:38
进来看一看
8 # huwg
12-01 01:02
谢谢分享
7 # huwg
12-01 01:02
了解一下
6 # huwg
12-01 01:02
来看看了
5 # srwam
11-30 21:47
确实不错
4 # srwam
11-30 21:47
了解一下
3 # srwam
11-30 21:47
来看看
2 # hanxiao129
11-30 16:39
了解一下内幕
1 # hanxiao129
11-30 16:38
谢谢楼主分享

全部回帖(10)»
最新回帖
收藏本帖
发新帖