作者:陈其友 | 旷视 MegEngine 架构师
在这个算力需求爆炸的大背景下,如何发挥出已有硬件的最大算力变得非常重要,直观一点是:我们需要对现有算法针对特定的处理器进行极致的性能优化,尽量满足目前 AI 算法对算力高要求。为了能够做到极致的性能优化,我们可能的方向有:
在优化程序的过程中,首先要解决的问题是:如何评估我们程序发挥了处理器几成的算力,以及进一步优化空间和优化方向。
为了更懂我们的处理器,MegEngine 团队开发了一个工具 MegPeak,可以帮助开发人员进行性能评估,开发指导等,目前已经开源到 GitHub。
通过 MegPeak 用户可以测试目标处理器:
虽然上面的部分信息可以通过芯片的数据手册查询相关数据,然后结合理论计算得到,但是很多情况下无法获取目标处理器详尽的性能文档,另外通过 MegPeak 进行测量更直接和准确,并且可以测试特定指令组合的峰值带宽。
使用方法参考 MegPeak 的 Readme 文档
测试 ArmV8 上通用指令峰值和延迟,编译完成之后,在目标处理器上执行 megpeak ,得到:
如上图所示,MegPeak 可以精确测试出 CPU 上每条指令的计算峰值以及延迟周期。OpenCL 上将测试出不同数据类型进行访存的 Local Memory ,Global Memory 的带宽,以及 int/float 不同数据类型进行计算的峰值。这些数值将有效的指导我们评估目前程序的性能,并绘制 RoofLine ,将可以帮助用户诊断出阻塞程序主要因素,是访存或者计算,具体使用分析方法将在后面介绍。
MegPeak 测试的主要参数是
要了解 MegPeak 是如何测试出上面这些性能数据,并且做到和数据手册上查询到尽量一致,因此需要读者了解下面 CPU 流水线相关细节。
现代处理器为了增加指令的吞吐,引入了指令流水线,指令流水线可以将一条指令的执行过程划分为多个阶段,经典的 5 级流水线有:取指令,翻译指令,执行指令,访问寄存器,写回数据,这 5 个阶段,处理器中执行每个阶段的物理单元独立,因此理想状态下,每个时钟周期每个阶段对应的物理单元都能执行一次对应的操作,这样就形成了流水线,这样处理器每个时钟周期就可以完成执行一条指令。如下表所示,从第 5 个时钟周期之后,每个时钟周期都会完成一条指令执行:
但是,流水线在实际执行时候不可能一直这样流畅的执行下去,会存在以下的冒险,阻塞流水线。
MegPeak 中测量处理器指令的计算峰值和延迟就是通过控制指令间的数据冒险,尽可能排除结构冒险和控制冒险来实现的,因为 MegPeak 中需要通过写 Code 来控制处理器的数据冒险,为了排除编译器编译 code 时候的优化带来的干扰,所以在 MegPeak 在测试中的核心代码使用汇编来实现的。
为了测量处理器上一条指令的计算峰值,我们需要写出重复执行这条指令,但是没有任何冒险的代码,所以需要代码控制数据冒险和控制冒险。
下面是 MegPeak 测试 Arm64 上 fmla 指令计算峰值时候的核心 Code 。
static int fmla_throughput() {
asm volatile(
"eor v0.16b, v0.16b, v0.16b\n"
"eor v1.16b, v1.16b, v1.16b\n"
...
"eor v19.16b, v19.16b, v19.16b\n"
"mov x0, #0\n"
"1:\n"
"fmla v0.4s, v0.4s, v0.4s\n"
"fmla v1.4s, v1.4s, v1.4s\n"
...
"fmla v19.4s, v19.4s, v19.4s\n"
"add x0, x0, #1 \n"
"cmp x0, %x[RUNS] \n"
"blt 1b \n"
:
: [RUNS] "r"(megpeak::RUNS)
: "cc", "v0", "v1", "v2", "v3", "v4", "v5", "v6", "v7", "v8", "v9", "v10", "v11", "v12", "v13",
"v14", "v15", "v16", "v17", "v18", "v19", "x0");
return megpeak::RUNS * 20;
}
上面的内嵌汇编代码中,主要做了几件事情
这里有一个问题需要解释,为什么选择 20 个寄存器:
为了测量处理器上一条指令的执行延迟,我们需要写出重复执行这条指令,并让这些指令之间存在严格的数据冒险,尽量排除其他冒险。
下面是 MegPeak 测试 Arm64 上 fmla 指令延迟的核心 Code 。
static int fmla_latency() {
asm volatile(
"eor v0.16b, v0.16b, v0.16b\n"
"mov x0, #0\n"
"1:\n"
"fmla v0.4s, v0.4s, v0.4s\n"
//重复 20 次
...
"fmla v0.4s, v0.4s, v0.4s\n"
"add x0, x0, #1 \n"
"cmp x0, %x[RUNS] \n"
"blt 1b \n"
:
: [RUNS] "r"(megpeak::RUNS)
: "cc", "v0", "x0"
);
return megpeak::RUNS * 20;
}
上面的内嵌汇编代码中,主要将 fmla v0.4s, v0.4s, v0.4s\n
这条指令重复了 20 次,这样每条指令都依赖上一条指令的计算结果,所以存在严格的数据相关。
执行代码,统计执行时间,通过执行的指令条数,可以计算出这条指令最终的延迟。
上面的代码在 MegPeak 中实现,不是这么直接,而是通过宏来实现 code 的生成。
MegPeak 可以测试出处理器的内存带宽,指令的理论计算峰值,指令的延迟等信息,因此可以帮助我们:
另外 MegPeak 还可以提供对理论的验证,如我们通过处理器频率单核单周期指令发射数量每条指令执行的计算量可以计算出理论计算峰值,然后我们可以通过 MegPeak 进行实际测量进行验证。
Roofline 模型被大量的使用在高性能计算中,是评估算法的可优化程度和优化方向的重要工具。使用 MegPeak 可以绘制出更加具体的关于指令对应的 Roofline 模型,如:在 CPU 中,不同的数据类型,虽然访存带宽不会改变,但是计算峰值差距比较大,比如在 arm 上 float 的计算峰值和 int8 的计算峰值差距很大。
在优化具体算法的时候,可以通过 MegPeak 测试出 kernel 里面的主要指令的最大峰值,如在 Arm 上优化 fp32 Matmul 的时候,主要用到的指令是 fmla 指令,这时候可以测试程序实际运行的峰值,如果指令的峰值和程序的峰值差距越小,说明代码优化的越好。
另外,可以根据算法实现计算出计算量和访存量,并使用 MegPeak 绘制出上面的 Roofline ,通过计算实际的计算密度,然后再对应到 Roofline 中,如果计算密度落在上图中的绿色区域,说明程序需要更多考虑优化访存,提供更优的访存模型,如分块,提前 pack 数据等。如果计算强度的点落在灰色区域说明,代码已经最优了,如果还想进一步提速,只能考虑从算法角度进行优化了,如:在卷积中使用 FFT,Winograd 等算法进行优化。
很多 Kernel 的优化不是单纯的某一条指令就可以衡量,可能需要多条指令的组合才能代表整个 Kernel 的计算,因此我们需要探索如何组织这些指令使其达到处理器最优的性能。下面列举在 A53 小核优化 fp32 Matmul 的过程中,由于 Matmul 是计算密集型算子,考虑通过多发射隐藏访存指令的开销,使用 MegPeak 配合进行分析,探索如何组合指令实现尽可能多的多发射。
因为小核上面资源有限,指令多发射有很多限制,
根据上面的指令组合可以使得 Matmul 在小核上达到计算峰值的 70%左右。
MegPeak 作为一个进行高性能计算的辅助工具,能够使得开发人员轻松获得目标处理器的内在的详细信息,辅助进行对代码的性能评估,以及优化方法设计。但是 MegPeak 也有一些需要丰富的方向:
如果有同学对上面的功能感兴趣,欢迎大家提交代码。最后欢迎大家使用 MegPeak 。