前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >从上到下的系统架构分析方法 - Intel PMU

从上到下的系统架构分析方法 - Intel PMU

作者头像
Linux阅码场
发布2019-06-04 18:34:33
6.5K0
发布2019-06-04 18:34:33
举报
文章被收录于专栏:LINUX阅码场

来源:内核月谈


layout:

Top-down Microarchitecture Analysis Method

原文链接 1,https://www.intel.com/content/dam/www/public/us/en/documents/manuals/64-ia-32-architectures-optimization-manual.pdf 2,https://software.intel.com/en-us/vtune-amplifier-help-tuning-applications-using-a-top-down-microarchitecture-analysis-method 3,http://halobates.de/blog/p/262 翻译: 弃余

引言

现代 CPU 大多具有性能监控单元(Performance Monitoring Unit, PMU),用于统计系统中发生的特定硬件事件,例如缓存未命中(Cache Miss)或者分支预测错误(Branch Misprediction)等。同时,多个事件可以结合计算出一些高级指标,例如每指令周期数(CPI),缓存命中率等。一个特定的微体系架构可以通过 PMU 提供数百个事件。对于发现和解决特定的性能问题,我们很难从这数百个事件中挑选出那些真 正有用的事件。 这需要我们深入了解微体系架构的设计和 PMU 规范,才能从原始事件数据中获取有用的信息。

自顶向下的微体系架构分析方法(Top-Down Microarchitecture Analysis Method, TMAM)可以在乱序执行的内核中识别性能瓶颈,其通用的分层框架和技术可以应用于许多乱序执行的微体系架构。TMAM 是基于事件的度量标准的分层组织,用于确定应用程序中的主要性能瓶颈,显示运行应用程序时 CPU 流水线的使用情况。

概述

现代高性能 CPU 的流水线非常复杂。 一般来说,CPU 流水线在概念上分为两部分,即前端(Front-end)和后端(Back-end)。Front-end 负责获取程序代码指令,并将其解码为一个或多个称为微操作(uOps)的底层硬件指令。uOps 被分配给 Back-end 进行执行,Back-end 负责监控 uOp 的数据何时可用,并在可用的执行单元中执行 uOp。 uOp 执行的完成称为退役(Retirement),uOp 的执行结果提交并反馈到>架构状态(CPU 寄存器或写回内存)。 通常情况下,大多数 uOps 通过流水线正常执行然后退役,但有时候投机执行的 uOps 可能会在退役前被取消,例如在分支预测错误的情况下。

在最近的英特尔微体系结构上,流水线的 Front-end 每个 CPU 周期(cycle)可以分配4个 uOps ,而 Back-end 可以在每个周期中退役4个 uOps。 流水线槽(pipeline slot)代表处理一个 uOp 所需的硬件资源。 TMAM 假定对于每个 CPU 核心,在每个 CPU 周期内,有4个 pipeline slot 可用,然后使用专门设计的 PMU 事件来测量这些 pipeline slot 的使用情况。在每个 CPU 周期中,pipeline slot 可以是空 的或者被 uOp 填充。 如果在一个 CPU 周期内某个 pipeline slot 是空的,称之为一次停顿(stall)。如果 CPU 经常停顿,系统性能肯定是受到影响的。TMAM 的目标就是确定系统性能问题的主要瓶颈。

下图展示并总结了乱序执行微体系架构中自顶向下确定性能瓶颈的分类方法。这种自顶向下的分析框架的优点是一种结构化的方法,有选择地探索可能的性能瓶颈区域。 带有权重的层次化节点,使得我们能够将分析的重点放在确实重要的问题上,同时无视那些不重要的问题。

例如,如果应用程序性能受到指令提取问题的严重影响, TMAM 将它分类为 Front-end Bound 这个大类。 用户或者工具可以向下探索并仅聚焦在 Front-end Bound 这个分类上,直到找到导致应用程序性能瓶颈的直接原因或一类原因。

设计

Top Level

在最顶层,TMAM 将 pipeline slot 分为四个主要类别:

  • Front-end Bound 1Front-end Bound 表示 pipeline 的 Front-end 不足以供应 Back-end。
  • Front-end 是 pipeline 的一部分,负责交付 uOps 给 Back-end 执行。
  • Front-end Bound 进一步分为 Fetch Latency(例如,ICache or ITLB misses)
  • 和 Fetch Bandwidth(例如,sub-optimal decoding)。
  • Back-end Bound 1Back-end Bound 表示由于缺乏接受执行新操作所需的后端资源而导致
  • 停顿的 pipeline slot 。它进一步分为分为 Memory Bound (由于内存子系统造成的
  • 执行停顿)和 Core Bound(执行单元压力 Compute Bound 或者缺少指令级并行 ILP)。
  • Bad Speculation 1Bad Speculation 表示由于分支预测错误导致的 pipeline slot 被浪费,
  • 主要包括 (1) 执行最终被取消的 uOps 的 pipeline slot,以及 (2) 由于从
  • 先前的错误猜测中恢复而导致阻塞的 pipeline slot。
  • Retiring 1Retiring 表示运行有效 uOp 的 pipeline slot。 理想情况下,
  • 我们希望看到所有的 pipeline slot 都能归类到 Retiring,
  • 因为它与 IPC 密切相关。 尽管如此,高 Retiring 比率并不意味着没有提升优化的空间。

后两者表示非停顿的 pipeline slot,前两者表示停顿的 pipeline slot。 下图描述了一个简单的决策树来展示向下分析的过程。如果一个 pipeline slot 被某个 uOp 使用,它将被分类为 Retiring 或 Bad Speculation,具体取决于它是否最终提交。如果 pipeline 的 Back-end 部分不能接受更多操作(也称为 Back-end Stall),未使用的 pipeline slot 被分类为 Back-end Bound。Front-end Bound 则表示>在没有 Back-end Stall 的情况下没有操作(uOps)被分配执行。

Front-end Bound

在许多情况下,Front-end 指令带宽可能会影响性能,特别是在高 IPC 的情况下。一些专用单元被引入,用来隐藏流水线 Fetch 指令延迟以及维持所需的带宽,例如 Loop Stream Detector (LSD) 以及 Decoded I-cache (DSB)。

TMAM 进一步将 Front-end Bound 划分为延迟和带宽两个子类:

  • ICache miss 属于 Fetch Latency 分类
  • 指令解码器的低效问题属于 Fetch Bandwidth 分类

这些度量标准都是以自顶向下的方式定义的。Fetch Latency 表示任何原因导致的指令提取饥饿(没有指令输送)。我们所熟知的 icache and i-TLB miss 就属于这个类别,但是并不局限于此。Branch Resteers 表示流水线刷新(pipeline flush)之后的指令提取延迟。pipeline flush 可能由一些清除状态的事件引起,例如 branch misprediction 或者 memory nukes。Branch Resteers 与 Bad Speculation 密切 相关。

Back-end Bound

Back-end Bound 分为 Memory Bound 和 Core Bound,通过在每个周期内基于执行单元的占用情况来分析 Back-end 停顿。为了达到尽可能大的 IPC,需要使得执行单元保持繁忙。例如,在一个有4个 slot 的机器中,如果在稳定状态下只能执行三个或更少的 uOps,就不能达到最佳状态,即 IPC 等于4。这些次优周期称为 Execution Stalls。

  • Memory Bound 1Memory Bound 对应缓存和内存子系统相关的 Execution Stalls。这些停顿通常表现为执行单元在短时间内饥饿,例如 load 操作没有在缓存中命中。 对于常见情况,内存访问的真正代价是调度程序没有其他准备好的 uOps 提供给执行单元。后面的 uOps 可能正在等待进行中的内存访问,或者依赖于其他未准备好的 uOps。 2 3Execution Stalls 包含几个子类,每个子类都与特定的高速缓存级别相关联,取决于各个高速缓存级别是否可以满足所需的数据。在某些情况下,Execution Stall 可能会经历显著的延迟,远远大于相应缓存级别的标准延迟,即使没有发生相应的缓存未命中。例如,L1D 高速缓存通常具有与 ALU 停顿相当的较短的延迟。 然而在某些情况下,如 load 操作被阻塞,无法将数据从较早的 store 操作转发(forward )到一个重叠地址,这个 load 负载可能会遭受较高的延迟,虽然最终能在 L1D 中命中。 在这种情况下,in-flight 的 load 操作将持续很长时间并且不会产生 L1D miss。因此,这个问题属于 L1 Bound 子类。 4 5此外,与 store 操作相关的 Execution Stalls 都属于 Stores Bound 子类。由于内存访问顺序要求,store 操作被缓存并异步执行。通常, store 操作对性能影响很小,但不能完全忽视。TMAM 将 Stores Bound 定义为那些执行端口利用率(execution port utilization)较低,以及存在大量需要消耗资源用来缓冲 store 操作的周期。 6 7最后,TMAM 在 Ext. Memory Bound 子类下使用了一个简单的启发式算法来区分 MEM Bandwidth 和 MEM Latency。该启发式算法的主要根据是当前有多少请求依赖从内存中获取的数据。每当这类请求的占用率超过一个高阈值时(例如最大请求数的70%),TMAM 将其标记为可能受内存带宽的限制。其他部分都属于内存延迟子类。
  • Core Bound 1Core Bound 对应于执行单元存在压力或者程序中缺少指令级别并行(ILP)。Core bound 的
  • 停顿可能表现为较短的执行饥饿周期或者执行端口利用率不佳,这使得识别 Core bound 比较困难。
  • 例如,一个长延迟的除法操作可能会序列化执行,而服务于特定类型 uOps 的执行端口上的压力
  • 可能表现为一个周期内只有少量端口被使用。 2 3Core Bound 的问题一般可以通过更好的代码生成来缓解。例如,一系列相关的算术
  • 运算将被标记为 Core Bound。编译器可以通过更好的指令调度来缓解这种停顿。
  • 矢量化(Vectorization)也可以缓解 Core Bound 的问题。

Bad Speculation

Bad Speculation 表示由于不正确的预测而浪费的 pipeline slot,主要包括两部分:

  • 执行了最终不会被提交的 uOps 的 slots
  • 从错误预测中恢复而导致流水线被阻塞的 slots

TMAM 的一个关键原则就是将 Bad Speculation 放在了最顶层, Bad Speculation 确定了受到错误执行路径影响的工作负载的比例,并反过来决定了其他类别中观察值的准确性。TMAM 进一步将 Bad Speculation 分类为 Branch Mispredict 和 Machine Clears,这两种情况导致的问题和 pipeline flush 相像。Branch Mispredict 主要关注如何使程序控制流对分支预测更友好,Machine Clears 则主要指出一些异常 情况,例如清除内存排序机(memory ordering machine clears)或者自修改代码(self modifying code)。

Retiring

理想情况下,我们希望看到所有的 slots 都被标记为 Retiring 类别。尽管如此,Retiring 比例高并不意味着没有更多的性能提升空间。诸如 Floating Point Assists (FP_ASSISTS) 的微指令(Microcode)序列通常会影响性能并且可以避免。这类情况被标记为 MSROM 子类以便引起注意。

非矢量化(non-vectorized)代码的高 Retiring 比值可能是进行向量化(vectorization)代码的一个重要提示。这样做基本上可以让更多的操作通过单指令 uOp 完成,从而提高性能。TMAM 进一步将 Retiring->Base 子类划分为 FP Arith,并区分标量操作和矢量操作。

应用/工具

pmu-tools 是 Adni Kleen 开发的开源工具包,针对 Intel CPU 提供友好的接口来访问原始事件,并提供一些附加功能。toplev 是 pmu-tools 中的一个工具,在 Intel CPU 的 Linux perf 基础上实现了 TMAM 方法。toplev 可以定位 CPU Bound 代码的瓶颈,不能识别其他(Not bound by CPU)代码的瓶颈。toplev 是一个计数工具,它使用 PMU 来计数事件。toplev 的一个典型使用场景是,用户已经根据一个标>准工具(例如 perf, sysprof, pyprof)进行采样,了解 hot code 的分布,但是你想知道为什么这部分代码运行很慢。

安装

toplev 在 Linux 上运行,需要安装 perf 工具。toplev 还需要访问 PMU,在 VM 中运行时需要注意启用这个特性。注意,toplev 需要禁用 NMI watchdog,并以 root 身份运行。

代码语言:javascript
复制
1% git clone https://github.com/andikleen/pmu-tools
2% cd pmu-tools
3% export PATH=$PATH:`pwd`
4% sudo sysctl -p 'kernel.nmi_watchdog=0'

确定 CPU Bound 任务

第一步是确定程序是否真的是 CPU Bound 型工作负载。toplev 只能帮助定位解决 CPU Bound 问题。如果瓶颈在其他地方,则必须使用其他方法。非 CPU 瓶颈可以是网络,磁盘IO,显卡等。

选择要计数的代码

一般来说toplev测量整个系统的性能数据;当指定一个工作负载时,toplev将在工作负载运行的时间段内测量整个系统,这一点和perf的使用是类似的。

代码语言:javascript
复制
1% toplev.py my-workload
2或者
3% toplev.py sleep XXX

让我们衡量一个简单的工作负载。这是一个 bc 表达式,在作者电脑上运行大约1秒(在大多数情况下,使用长时间运行的工作负载可能会更好),使用第一层级(-lxxx 参数用来设定测量的最大层级)运行以避免任何 PMU 计数器的多路复用。

代码语言:javascript
复制
 1% toplev.py -l1  bash -c 'echo "7^199999" | bc > /dev/null'
 2Will measure complete system.
 3Using level 1.
 4...
 5C0    BAD     Bad_Speculation:       31.66%
 6    This category reflects slots wasted due to incorrect
 7    speculations, which include slots used to allocate uops that
 8    do not eventually get retired and slots for which allocation
 9    was blocked due to recovery from earlier incorrect
10    speculation...
11C1    FE      Frontend_Bound:         42.46%
12    This category reflects slots where the Frontend of the
13    processor undersupplies its Backend...
14C1    BE      Backend_Bound:           27.25%
15    This category reflects slots where no uops are being
16    delivered due to a lack of required resources for accepting
17    more uops in the Backend of the pipeline...
18C0-T0 CPU utilization:             0.00 CPUs
19    Number of CPUs used...
20C0-T1 CPU utilization:             0.00 CPUs
21C1-T0 CPU utilization:             0.00 CPUs
22C1-T1 CPU utilization:             0.00 CPUs

每当首次打印层节点时,toplev 都会打印一个描述。默认情况下,它显示一个简短描述,长描述可以使用 --long-desc 来启用。在之后的例子中,我们禁用描述以获得较短的输出。toplev 输出中,一些值以 core 为单位,另一些则以 thread 为单位收集。多 socket 的情况下还会有 socket 分类。

上面的例子中,我们没有将工作负载(bc)绑定到某个 CPU,所以不清楚 C0 或 C1 的值是否相关。由于 bc 是单线程的,我们可以将它绑定到一个已知的 CPU 核心,并使用 --core 来过滤该核心上的输出。

代码语言:javascript
复制
1% toplev.py --core C0 --no-desc -l1 taskset -c 0  bash -c 'echo "7^199999" | bc > /dev/null'
2Will measure complete system.
3Using level 1.
4...
5C0    BAD     Bad_Speculation:       33.29%
6C0-T0 CPU utilization:             0.00 CPUs
7C0-T1 CPU utilization:             0.00 CPUs

可以结合 taskset 绑定到更多的 CPU 进行多线程工作,并将结果进行过滤。结果显示 bc 受限于 Bad Speculation。现在我们可以选择更多的节点并更详细地分析问题。

如果已知工作负载是单线程的,并且系统当前空闲,那么也可以显式指定--single-thread 选项来测量工作负载,而不是默认测量整个系统

代码语言:javascript
复制
1% toplev.py --no-desc --single-thread bash -c 'echo "7^199999" | bc > /dev/null'
2..
3BAD     Bad_Speculation:         32.65%
4CPU utilization:               0.00 CPUs

程序在初始化阶段的行为相比生命周期后期的行为有很大的差异。为了精确测量,跳过这个阶段通常是有用的。这可以用 -D xxx 选项来完成,xxx是跳过的毫秒数(需要较新版本的 perf)。当程序运行时间足够长时,这通常是不需要的,但是它有助于提高小测试的精度。 默认情况下,toplev 同时测量内核和用户代码。如果只对用户代码感兴趣,则可以使用 --user 选项。这往往会减少测量噪声,因为中断被过滤掉了。还有一个--kernel选项用来测量内核代码。 在具有多个阶段的复杂工作负载上,测量间隔也是有用的。这可以用 -I xxxi 选项指定,xxx是间隔的毫秒数。perf 要求时间间隔至少需要 100ms。toplev 将输出每个间隔的测量值。这往往会产生大量的数据,所以绘制输出很有必要。

选择正确的层次和多路复用

PMU 只有有限数量的计数器可以同时测量事件。任何多于一个层次的 toplev 运行,或者启动了额外的CPU 指标,则需要更多的计数器。在这种情况下,内核驱动程序将开始多路复用(Multiplexing),并定期更改事件组(在1毫秒和10毫秒之间,通常2.5毫秒,取决于内核配置)。多路复用可能会导致测量错误,因为 toplev 中的几个节点中的公式需要关联多个事件组的数据。因此 toplev 在反复执行同样事情的工 作负载上效果最好,但在执行许多不同的短事件的工作负载上效果不佳。

只要没有使用 PMU 的或者有问题的其他工作负载处于活动状态,则第一层次(-l1)和未启用额外指标的 toplev 不会进行多路复用。一开始的时候,不采用多路复用来进行分析通常是一个好主意。更高的层次和指标提供了额外的信息,但也增加了复用,因此可能导致更多的测量错误。如果工作负载非常重复,可以使用 --no-multiplex关闭复用。toplev 会根据需要多次重新运行工作量。在 BIOS 中禁用超线程 将使通用计数器的数量增加一倍,并减少多路复用。

有关问题的更多详细信息和解决方法,可以参阅 reasons for measuring issues

数组求和实例的测试分析

我们考虑测量一些 beating the compiler 的例子。beating the compiler 实现了一个简单的问题,即数组求和,从高级脚本语言开始,然后利用底层操作逐步优化。测试代码运行在启用了 Turbo 的 Intel Core i7-4600U(Haswell)笔记本电脑上。

开始是简单直接的Python实现。

代码语言:javascript
复制
1def sum_naive_python():
2    result = 0
3    for i in data:
4        result += i
5    return result

我们用 toplev 来运行这段代码,跳过初始化阶段(大约80毫秒,通过预先测量得到)。一般来说,测量太短的程序是很困难的(太多的其他影响占主导地位)。在这种情况下,我们通过迭代5000次测试来调试程序运行至少几秒钟。

代码语言:javascript
复制
1% toplev.py -D 80 -l1  --no-desc  --core C0 taskset -c 0  python first.py  numbers
2..
3C0    FE      Frontend_Bound:       22.08%
4C0    RET     Retiring:             75.01%

所以 Python 是一点 Front-end Bound,但是从 toplev 中没有其他发现可见的问题。我们可以通过将层级提高到3来更仔细地分析 Front-end Bound。注意这可能有缺点,因为它会导致多路复用。在这种情况下,工作负载运行时间越长越好(我们将基准函数循环5000次)。

代码语言:javascript
复制
 1% toplev.py -D 80 -l3  --core C0 taskset -c 0  python first.py  numbers
 2...
 3C0    FE      Frontend_Bound:            21.91%
 4C0    FE      Frontend_Bound.Frontend_Bandwidth:      15.91%
 5C0    FE      Frontend_Bound.Frontend_Bandwidth.DSB:  32.11%
 6    This metric represents Core cycles fraction in which CPU was
 7    likely limited due to DSB (decoded uop cache) fetch
 8pipeline...
 9C0    RET     Retiring:                74.97%
10C0    RET     Retiring.Base:              74.88%

可以观察到 Front-end Bound 是 DSB (decoded uop cache) fetch。具体描述被简化了,可以使用 --long-desc 来查看更具体的描述。

让我们来看看第二个 Python 版本。这个版本使用 Python 中的内建函数 sum() 来数组求和,以便将更多的执行动作从解释器推送到 Python C 核心。

代码语言:javascript
复制
1def sum_builtin_python():
2    return sum(data)

在这种情况下,我们知道 python 代码是单线程的(系统的其余部分是空闲的),所以可以使用--single-thread

代码语言:javascript
复制
1% toplev.py --single-thread -l3 -D 80 python second.py   numbers
2...
3FE      Frontend_Bound:          27.40%
4FE      Frontend_Bound.Frontend_Bandwidth:      23.20%
5FE      Frontend_Bound.Frontend_Bandwidth.DSB:  46.30%
6    This metric represents Core cycles fraction in which CPU was
7    likely limited due to DSB (decoded uop cache) fetch
8    pipeline...

然而这并没有改变多少结果。Python 是相当重(heavy-weight)的,大大加重了 CPU 的前端,但其中大部分至少在解码的 icache 中运行。

现在我们来看一个标准的C实现,它应该快得多:

代码语言:javascript
复制
1int sum_simple(int* vec, size_t vecsize)
2{
3    int res = 0;
4    int i;
5    for (i = 0; i < vecsize; ++i) {
6        res += vec[i];
7    }
8    return res;
9}

这个循环被编译成一个简单的测试工具,使用 gcc 4.8.3 并关闭优化,使用 toplev 进行测量:

代码语言:javascript
复制
1% toplev.py -l1 --single-thread --force-events ./c1-unoptimized  numbers
2BE      Backend_Bound:         60.34%
3    This category reflects slots where no uops are being
4    delivered due to a lack of required resources for accepting
5    more uops in the Backend of the pipeline...

这个版本比 Python 版本运行速度快4倍。瓶颈已经完全进入 Back-end。我们可以在第三层级更仔细地看待它:

代码语言:javascript
复制
 1% toplev.py -l3 --single-thread --force-events ./c1-unoptimized  numbers
 2BE      Backend_Bound:            60.42%
 3BE/Mem  Backend_Bound.Memory_Bound:      32.23%
 4BE/Mem  Backend_Bound.Memory_Bound.L1_Bound:    32.44%
 5    This metric represents how often CPU was stalled without
 6    missing the L1 data cache...
 7    Sampling events:  mem_load_uops_retired.l1_hit:pp,mem_load_uops_retired.hit_lfb:pp
 8BE/Core Backend_Bound.Core_Bound:          45.93%
 9BE/Core Backend_Bound.Core_Bound.Ports_Utilization: 45.93%
10    This metric represents cycles fraction application was
11    stalled due to Core computation issues (non divider-
12    related)...

可以看到它是 L1 Bound 和 Core Bound。 L1 Bound 可能是因为未优化的 gcc 代码倾向于将所有变量存储在堆栈上,没有进行全面的寄存器优化。 我们可以用 -O2 打开优化器,看看会发生什么:

代码语言:javascript
复制
1% toplev.py -l3 --single-thread ./c1-o2  numbers
2RET     Retiring:                  83.66%
3RET     Retiring.Base:            83.62%
4    This metric represents slots fraction where the CPU was
5    retiring uops not originated from the microcode-sequencer...
6    Sampling events:  inst_retired.prec_dist:pp

L1 Bound 完全消失,工作负载的大部分时间都在 Retire,这是很好的。这个版本也比未优化的C版本快了85%。注意这些好处有些极端的情况,可能完全取决于代码的行为。

优化 Retiring 的一种方法是对代码进行矢量化(Vectorization),并在每条指令上做更多的工作。通过gcc -O3启用矢量化。不幸的是,它不能矢量化我们简单的循环。

代码语言:javascript
复制
1c1.c:9: note: not vectorized: not suitable for gather load _32 = *_31;

我们可以从 beating the compiler 中尝试Roguelazer手动优化的内嵌汇编 AVX2 版本。这应该会减少 Retiring,因为它在每个 SIMD 指令中可以执行多达8个加法,同时它还使用了循环展开。

代码语言:javascript
复制
 1% toplev.py -l3 --single-thread ./c-asm  numbers
 2BE      Backend_Bound:            64.15%
 3BE/Mem  Backend_Bound.Memory_Bound:       ...
 4BE/Mem  Backend_Bound.Memory_Bound.L1_Bound:    49.32%
 5    This metric represents how often CPU was stalled without
 6    missing the L1 data cache...
 7    Sampling events:  mem_load_uops_retired.l1_hit:pp,mem_load_uops_retired.hit_lfb:pp
 8BE/Mem  Backend_Bound.Memory_Bound.L3_Bound:    48.68%
 9    This metric represents how often CPU was stalled on L3 cache
10    or contended with a sibling Core...
11Sampling events:  mem_load_uops_retired.l3_hit:pp
12BE/Core Backend_Bound.Core_Bound:          28.27%
13BE/Core Backend_Bound.Core_Bound.Ports_Utilization: 28.27%
14    This metric represents cycles fraction application was
15    stalled due to Core computation issues (non divider-
16    related)...

Retiring 瓶颈已经消失,我们终于看到了 Backend_Bound.Memory_Bound 瓶颈,在这种情况下,L1 Bound 和 L3 Bound所占百分比几乎相等,其余的是核心执行。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2019-03-22,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 Linux阅码场 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • Top-down Microarchitecture Analysis Method
  • 引言
  • 概述
  • 设计
    • Top Level
      • Front-end Bound
        • Back-end Bound
          • Bad Speculation
            • Retiring
            • 应用/工具
              • 安装
                • 确定 CPU Bound 任务
                  • 选择要计数的代码
                    • 选择正确的层次和多路复用
                      • 数组求和实例的测试分析
                      相关产品与服务
                      应用性能监控
                      应用性能监控(Application Performance Management,APM)是一款应用性能管理平台,基于实时多语言应用探针全量采集技术,为您提供分布式性能分析和故障自检能力。APM 协助您在复杂的业务系统里快速定位性能问题,降低 MTTR(平均故障恢复时间),实时了解并追踪应用性能,提升用户体验。
                      领券
                      问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档