存储器体系结构学习笔记

首发于个人博客

存储器性能评价指标

存储器停顿周期数

存储器的性能直接影响到CPU的性能评价,定义存储器停顿周期数为CPU等待存储器访问而停顿的时钟周期数,由此有CPU执行时间有:
CPU执行时间=(CPU时钟周期数+存储器停顿时钟周期数) \times 时钟周期时间
因此需要存储器停顿时钟周期数越小越好,对于这一变量有公式如下:
存储器停顿周期数 = 缺失数量 \times 缺失代价 = 指令数 \times \frac{产生缺失指令数量}{指令数} \times 缺失代价 \\ = 指令数 \times \frac{存储器访问指令数}{指令总数} \times 缺失率 \times 缺失代价
其中,缺失率表示存储器访问指令中会产生cache缺失的百分比;缺失代价表示发生cache缺失后为了解决缺失需要消耗的平均时钟周期数。另一种度量指标与时钟周期无关,即为每条指令的平均缺失数:
平均缺失数=\frac{产生访存缺失的指令数}{指令总数} = 缺失率 \times \frac{存储器访问指令数}{指令总数}
上述公式与缺失代价无关,缺失率的定义与上文相同

存储器平均访问时间

缓存性能比较好的度量为存储器平均访问时间,即对于每次存储器访问而言需要的平均时间,公式如下:
存储器平均访问时间 = 命中时间 + 缺失时间 \times 缺失代价
需要注意的是这一指标仅针对存储器访问指令,因此这是一个间接度量,考虑以下情况:

参数 数据
16KB指令缓存缺失数(每千条指令) 3.82
16KB数据缓存缺失数(每千条指令) 40.9
32KB统一缓存缺失数(每千条指令) 43.3
统一缓存数据访问额外需要时钟周期数 1
存储器访问中指令引用占比 74%
命中周期数/缺失代价 1/100
指令中数据传输指令占比 36%

需要注意的是,缺失数指的是对于所有指令而言产生存储器缺失的次数,而缺失率为相对于所有存储器访问产生缺失的比例。对于16KB的指令缓存,每条指令都会产生一次指令访问,缺失率为:
缺失率_{指令} = \frac{3.82}{1000 \times 1} = 0.004
对于16KB的数据缓存,有36%的指令会产生一次存储器访问,因此有:
缺失率_{数据} = \frac{40.9 }{0.36 \times 1000} = 0.114
有74%的存储器访问为指令访问,因此总体的缺失率为:
缺失率_{分裂} = 0.74 \times 0.004 + 0.26 \times 0.114 = 0.0326
考虑存储器平均访问时间,有:
存储器平均访问时间_{分裂} = 0.74 \times (1+0.004 \times 200) + 0.26 \times (1 + 0.114\times 200) = 7.52
对于32KB统一缓存而言,1000条指令一共产生1000次指令访存,其中36%的指令会产生数据访存,如下所示:
缺失率_{统一} = \frac{43.3}{1000 + 1000 \times 0.36} = 0.0318
对于统一缓存而言,数据访存指令会产生两种存储器访问,一次指令访问和一次数据访问,而统一缓存仅有端口,因此数据访问需要等待一个时钟周期,因此存储器平均访问时间:
存储器平均访问时间_{统一} = 0.74 \times (1+0.0318 \times 200) + 0.26 \times (1 + 1 + 0.0318 \times 200) = 7.62

对CPU性能影响

对于CPU性能而言,有以下公式:
CPU执行时间=(CPU时钟周期数+存储器停顿时钟周期数) \times 时钟周期时间
一般认为缓存命中时间作为CPU执行时钟周期数的一个部分,考虑一个以下参数的缓存:

参数 数值
CPU执行周期数 1
缺失代价 200
平均缺失率 2%
每条指令的存储器引用数 1.5
平均缓存缺失数(千条指令) 30

对于以上参数,每千条指令产生的存储访问数为1000 \times 1.5 = 150,存储器访问的缺失率为2%,即千条指令产生的存储器缺失数量为150 \times 2\%=30,与给出的平均缓存缺失数一致。使用缺失数计算CPU执行时间:
CPU执行时间 = IC \times (1 + \frac{存储器停顿周期数}{IC}) \times 时钟周期 \\= IC \times (1 + \frac{停顿数}{IC} \times 缺失代价) \times 时钟周期 = IC \times (1+\frac{30}{1000} \times 200) \times 时钟周期 \\ = 7 \times IC \times 时钟周期
上述分析均对于顺序存储器而言,其每次存储器缺失都会暴露为缺失代价。对于乱序处理器而言,其存储器缺失可能被乱序执行的其他指令掩盖,即有:
存储器停顿周期 = 缺失数 \times (总缺失代价 - 重叠缺失延迟)
对于乱序执行的CPU而言,分析比较复杂,若一个时钟周期该CPU没有提交最大可能数目的指令,则认为该CPU发生的了存储器访问缺失。

存储器层次结构

存储器之间的关于存储器层次结构,需要解决以下四个问题:

  • 块的放置:一个块可以放在这一级的什么位置
  • 块的识别:如何找到放置在这一级中的一个块
  • 块的替换:在缺失时应当替换哪个块
  • 块的写入:写入时发生什么

块的放置

首先定义的概念,一个组是存储器中的一段连续空间,可以容纳多个(整数个)块。取一个存储器中组的数量为m,每个组可以容纳的块的数量为n,有以下关系:
存储器容量 = m \times n \times 块大小
任何来自某个地址的块只能被放置在一个特定的组中,这种方法被称为组相联,一个组中可以容纳n个块,即为n-路组相联。块首先被映射到组,组编号为:
组编号 = 块地址 \% m
随后,这个块可以被放置在这个组中的任意块地址位置。即对于一个块地址为A的块而言,对应的组编号为G = A\%m,其可以被放置在这个编号为G的组中的任意有效的块起始地址位置。如下图所示:

ch2_cache_group.png

对于组相联,有两种特殊情况:

  • 直接映射:每个块只能存储在一个固定的位置,有存储地址=块地址 \% m,可认为时n=1的1-组相联
  • 全相联:一个块可以放置在任意位置,可认为时m=1的n-路组相联(缓存中仅有一个组)

块的识别

块的识别通过标签识别实现,每个存储器中的块对应一个标签,标签中包括一部分地址信息和有效性信号。对于一个块中的一个数据而言,其地址分为以下几个部分:

  • 标志部分:地址的高位部分,判断块时需要比对的部分
  • 索引部分:地址的中间部分,标记这个块若存在于存储器中,应当存在于哪个组中,这个部分不用于判断
  • 块偏移:地址的低位部分,标记这个数据相对于块起始地址的偏移量

识别块时,首先根据索引部分查找到对应的组,再对比组内所有块的标志部分和要查找的块的标签部分是否相同,同时判断有效性。若标志部分相同且有效,则这个块为待识别的块,否则无识别的块,过程如下所示:

ch2_cache_hit.png

首先提供查找地址,根据其中的索引查找到可能保存这个块的组,随后比对组内的所有标志和有效位,当有有效位置高且标志匹配的块,则命中,查找到该块。对于要查找的数据,根据偏移量从块中获取数据。

块的替换

当块发生缺失且对应的组中没有空闲的位置时,需要从已有的块中选择一个丢弃,块的替换算法决定丢弃哪个块,替换算法有以下几种:

  • 随机:随机选择一个块丢弃
  • 最近最少使用(LRU):丢弃掉未使用时间最久的块
  • 先入先出(FIFO):丢弃掉进入存储器最久的块

最近最少使用算法的记录比较困难,常见的替换方法为伪LRU算法,为每一个块设置一个bit。每次对一个块的访问会使这个bit置位为1,当一次访问后所有的bit均为高时,所有bit拉低,仅当前访问的块对应的bit拉高。当需要替换块时,随机从该bit为低的块中选择一个替换

块的写入

块的写入和读取最大的差别在于读取操作可以“任意进行”,因为对任何空间的读取不会对该该空间中的数据产生影响,而写入操作必须“精准执行”,因为写入操作对存储空间中的数据产生影响。对于这一级存储器中任何一个块的写入会产生一致性问题,即当前级的数据与上一级的数据不同,为了解决这一问题,有两种解决方法:

  • 直写:写入这一级存储的同时写入上一级存储
  • 写回:仅写入这一级存储,当被写入的块被替换时写回上一级存储器

直写策略容易实现,能保证数据的一致性,这上一级存储器中的数据永远时清洁的(即一致的),缺点是时间消耗大。而写回策略延迟低,但是实现复杂。当写回上一级存储器时,往往先将块放入写入缓冲器以减小延迟。另外,当需要对一个地址进行写入时,可能这个地址对应的块不在这一级存储器中,有两种策略:

  • 写入分派:首先执行命中操作,将块调入缓存,再进行写入
  • 无写入分派:不将对应块调入,直接写入上一级存储器,直写策略下常常使用

举例:Opteron缓存

AMD的Opteron处理器缓存组织方式如下图所示

opteron_cache.png

进入缓存的地址位宽为40bit,该缓存的容量为64KB,块大小为64B,使用两路组相联缓存。即由上可知,组内偏移量为6bit,缓存内共\frac{64KB}{64}=1024个块,使用两路组相联即有\frac{1024}{2} = 512个组,由此组索引位宽为9bit,地址位宽40bit,因此标志位宽为48-9-6=25bit。

该缓存使用最少替代(LRU)策略和写回/写入分派策略,对于一次缓存访问过程,过程如下:

  1. CPU给出40bit物理地址,分为标记、索引和偏移量三个部分(对应图中标号1)
  2. 根据索引部分找到可能存放这个块的组,读取组中两个块中的标记部分(对应图中标号2)
  3. 将两个标记与地址的标志部分比较,同时检查有效位是否为拉高:若有一个标记有效且与地址的标记相同,则缓存命中,使用二选一选择器将对应的数据数据输出;否则缓存未命中,需要进行访问低级存储器获取这个块(对应图中标志3)
  4. 若缓存未命中,则根据最少替代策略选择一个块,并将这个块送入牺牲块缓冲区,再由牺牲块缓冲区写回低级存储器,同时从低级存储器调入需要访问的块(对应图中标志4)

由于这一缓存使用LRU和写回策略,因此对于每一个块,除了有效位以外,还需要设置LRU位和脏位设置标记,脏位用于表示该块是否与低级存储器中的块相同。当每次访问(无论读写)这个块时,都需要根据LRU算法对LRU位进行设置;当写一个块时,就将脏位拉高,因为只要块被写入,就认为其与低级缓存不同。

缓存性能优化

缺失模型

对于缓存优化,首先根据缺失类型将其分为3类:

  • 强制缺失:第一次访问一个块时,这个块一定不在内存中,产生缺失成为强制缺失
  • 容量缺失:缓存无法容纳所有的块,当缓存容量满后,再载入块时必然放弃原有的块,再次访问由于容量不足被放弃的块产生的缺失为容量缺失
  • 冲突缺失:对于组相联结构,每个组中的块有限,当一个组满且另一个属于这个组的块被调入时,组中的某个块必然被放弃,再次访问由于块内冲突被放弃的块产生的缺失为冲突缺失

优化原理

优化目标为缩短存储器平均访问时间,有公式:
存储器平均访问时间 = 命中时间+缺失率\times 缺失代价
因此缩短存储器平均访问时间,有以下几种优化方法:

  • 缩短命中时间:索引时避免地址转换、提前读取
  • 降低缺失率:使用较大的块、较大的缓存和较高的关联度
  • 降低缺失代价:多级缓存、使读取操作设定高于写入操作

基础优化方法

下图是优化方法及其影响的汇总表

名称 命中时间 缺失代价 缺失率 硬件复杂度 备注
增大块大小 无影响 增大 降低 无影响 需要合理设计大小
较大缓存大小 延长 无影响 降低 增加 广泛应用
提高组相联度 延长 无影响 降低 增加 广泛应用
多级缓存 无影响 降低 无影响 大幅度增加 广泛应用
提高读取缺失优先级 无影响 降低 无影响 增加 广泛应用
使用虚拟地址 降低 无影响 无影响 增加 广泛应用

增加块大小

由于空间局域性原理(一个被用到的数据附近的数据可能被用到),增大块大小可以减少强制缺失,由此降低缺失率。但是较大的块会增加缺失代价,即一个块的尺寸变大,产生访问缺失时,需要花费更多的时钟周期从低级存储器中获取这个较大的块。因此选取块的大小需要综合考虑这两个因素。对于一个16K存储器,缺失率、缺失代价与块大小有以下表所示的关系:

块大小 缺失率 缺失代价
32 1.35% 80+32 \times \frac{2}{16} = 84
64 1.06% 80 + 64 \times \frac{2}{16} = 88
128 1.02% 80 + 128 \times \frac{2}{16} = 96

缺失代价为无论块大小,都首先消耗80个时钟周期,随后每2个时钟周期载入16个数据。由存储器平均访问时间的公式,假设命中时间为1个时钟周期,有:
存储器平均访问时间_{32} = 1 + 0.0135 \times 84 = 2.134 \\ 存储器平均访问时间_{64} = 1 + 0.0106 \times 88 = 1.933 \\ 存储器平均访问时间_{128} = 1+0.0102 \times 96 = 1.979
由上,尺寸为64的块最适合该系统。选取块的大小需要考虑低级存储器的带宽,这一参数决定缺失代价相对于块大小的上升速度。对于高带宽的系统而言,可以选择较大的块,因为此时缺失代价的上升速度低于缺失率的下降速度。

增大缓存大小

增大缓存大小可以减小容量缺失进而降低缺失率,但对应的可能增加命中时间和硬件复杂度

提高组相联度

提高组相联度可以降低冲突缺失进而降低缺失率,对于组相联度有以下两条经验公式:

  • 对于降低冲突缺失率而言,八路组相联的效果基本等同于全相联
  • 2:1经验规律:大小为N的直接映射缓存与大小为N/2的2路组相联缓存大致具有相同的缺失率

对应的,提高组相联度会使硬件的命中部分变得复杂,提高了命中时间。

使用多级缓存

多级缓存降低了缺失代价,二级缓存(L2)指再一级缓存(L1)和主存储器之间的缓存。当一级缓存发生缺失时,访问二级缓存查找数据;若二级缓存缺失,则由二级缓存到主存中找到数据。使用二级缓存后有:
缺失代价_{L1} = 存储器平局访问时间_{L2} = 命中时间_{L2} + 缺失率_{L2} \times 缺失代价_{L2}
代入一级缓存的存储器平均访问时间公式有:
存储器平局访问时间_{L1} = 命中时间_{L1} + 缺失率_{L1} \times (命中时间_{L2} + 缺失率_{L2} \times 缺失代价_{L2})
由于使用了二级缓存,对缺失率的定义细化如下:

  • 局部缺失率:\frac{缓存中的产生的缺失数}{对该缓存进行存储器访问的总数},即对于L1缓存为缺失率_{L1},对L2缓存为缺失率_{L2}
  • 全局缺失率:\frac{该缓存中产生的缺失数}{处理访问缓存总数},对于L1缓存为缺失率_{L1},对L2缓存为缺失率_{L1} \times 缺失率_{L2}

对于二级缓存,停顿周期参数如下所示:
每条指令平均存储器停顿周期 = 缺失数_{L1} \times 缺失代价_{L1} + 缺失数_{L2} \times 缺失代价_{L2}
即对于一条指令而言,若产生缺失,则要么这一数据在L2缓存中,要么这一数据在L2缓存也缺失。对于第一种情况,这一指令的缺失仅计入缺失数_{L1}中;对于第二种情况,这一指令的缺失同时计入缺失数_{L1}缺失数_{L2}。现在考虑一个以下参数的缓存系统:

参数 数据
第一级缓存缺失(千次引用) 40
第二级缓存缺失(千次引用) 20
每条指令存储引用数 1.5
L1命中时间 1
L2命中时间 10
L2缺失代价 200

有缺失率如下所示:
全局缺失率_{L1} = 局部缺失率_{L1} = \frac{40}{1000} = 4\% \\ 局部缺失率_{L2} = \frac{20}{40} = 50\% \\ 全局缺失率_{L2} = \frac{20}{1000} = 2\%
由此计算存储器平均访问时间:
存储器平局访问时间 = 1 + 0.04 \times (10 + 0.5 \times 200) = 5.4个时钟周期
若要计算每条指令的平均停顿时间,首先要计算缺失数:
缺失数_{L1} = \frac{40}{\frac{1000}{1.5}} = 0.06 \\ 缺失数_{L2} = \frac{20}{\frac{1000}{1.5}} = 0.03

随后根据缺失代价和缺失数计算每条指令的平均停顿时间:
每条指令平均停顿时间 = 缺失数_{L1} \times 缺失代价_{L1} + 缺失数_{L2} \times 缺失代价_{L2} \\ = 0.06 \times 10 + 0.03 \times 200 = 6.6
对于两个指标,有如下关系:
(存储器平均访问时间 - 命中时间) \times 每条指令存储访问数量 = (5.4- 1)\times 1.5 = 6.6 = 每条指令平均停顿时间
对于二级缓存的设计,有两个需要注意的点:

  • 第二级缓存如果足够大(远大于一级缓存),则二级缓存的局部缺失率与全局缺失率非常相似
  • 二级缓存的主要评价指标是缓存全局缺失率

对于二级缓存而言,首先需要考虑的是容量问题,一般来说二级缓存的容量应当略大于一级缓存;随后二级缓存使用组相联可以有效提高缺失代价;最后需要根据实际情况选择多级包含和多级互斥的策略:

  • 多级包含:二级缓存需要包含一级缓存中包含的所有块,实现简单,但是需要在多级之间使用相同的块大小,可能降低缓存的性能
  • 多级互斥:一级缓存中的块一定不会出现在二级缓存中,一级缓存从二级缓存中调入块的过程复杂化为一二级缓存块的交换,优点是仅需要二级缓存略大于一级缓存

提高读取缺失优先级

考虑缓存向存储器写入的情况,一般使用一个写缓冲区,当进行写入时,首先将数据写入写缓冲区中,此时认为写入完成,之后再由写缓冲区将数据写回主存。此时会有一个问题,即写缓冲块中可能有某次读请求需要的数据的最新副本(已经执行写入指令但尚未写入到主存中),具有两种解决方法:

  • 等待:每次读请求都等待写缓冲区清空再读取,实现简单,效率很低
  • 访问:每次读请求首先从写缓冲区查找数据,再执行缓存命中,为目前的通用方法

为了降低产生缺失的缺失代价,可以设置读取优先级高于写入优先级。若读取优先级未高于写入优先级,若当写缓冲区正在写入主存时产生读取缺失,首先需要等待写入完成再进行块读取,即:
缺失代价 = 写入时间 + 块读取时间
若读缺失优先级高于写入缺失,无论写缓冲区是否执行写入,读缺失都会立刻处理(若有写操作则打断),缺失代价即直接为块读取时间。

使用虚拟地址

虚拟地址为操作系统分配个每个进程的存储空间的地址。对于使用物理地址的缓存,则首先需要将CPU给出的虚拟地址转换为物理地址,然后使用物理地址对缓存进行命中。这样操作的缓存设计简单,但命中过程中涉及虚拟和物理地址的转换,因此延长了命中时间,即:
虚拟地址命中时间 = 地址转换时间 + 物理地址命中时间
为了降低命中时间,可以使用基于虚拟地址的缓存,即缓存中使用虚拟地址。但使用虚拟地址会产生一系列问题:

  • 保护问题:虚拟地址转为物理地址时需要检查页级保护,解决方法为在缺失时从主存中复制保护信息保存到缓存中,每次访问都进行检查
  • 切换进程:每个进程都有自己的虚拟地址空间,可能出现两个进程的相同虚拟地址对应不同的物理地址,因此每次切换进程是需要刷新缓存,产生大量的强制缺失。解决方法是在标签中添加PID(进程识别标识符)字段,标记这个缓存的块属于哪一个进程,命中时进行检查。
  • 别名地址:对于一个进程,可能给一个物理地址赋予多个不同的虚拟地址,因此可能出现一个物理块在缓存中有多个副本,若对一个副本进行写入,则会出现多个块不一致的问题。解决方法是别名消去,即要求每个缓存块必须拥有一个独一无二的物理地址。其中一种方案是检查所有块,例如一个两路组相联的64KB缓存(地址位宽16bit),块尺寸为4KB(偏移量地址12bit),标签位宽为3bit(16-12-1),则当发生缺失时,检查所有可能的块地址共八个,若有匹配,则使其无效。
  • I/O交换:I/O一般使用物理地址,映射到虚拟地址涉及地址转换

一种折中的方案是仍然使用物理地址,但是当命中开始时直接使用块内偏移地址进行数据访问,同时并行的执行虚拟地址向物理地址的转换(虚拟地址和物理地址的块内偏移量相同),匹配使用物理地址匹配;即使用数据访问和地址转换并行掩盖地址转换时间。

高级优化方法

名称 命中时间 带宽 缺失代价 缺失率 硬件复杂度
使用小而简单的L1缓存 降低 - - 增大 -
路预测 降低 - - - 略微增加
缓存访问流水化 延长 增大 - - 略微增加
无阻塞缓存 - 增大 降低 - 大幅度增加
分组缓存 - 增大 - - 略微增加
关键字优先与提前启动 - - 降低 - 增加
合并写缓冲区 - - 降低 - 略微增加
编译器优化 - - - 降低 -
- - 降低 降低 大幅度增加

使用小而简单的L1缓存

使用小而简单的L1缓存主要用于降低命中时间,命中时间包括以下三个部分:

  • 使用地址中的索引字段确定组地址
  • 读取组中的多个标记与地址中的标记字段进行比较
  • 设置多路选择器选择正确的数据项

若增大L1缓存的大小,则会增长第一个部分的时间,因此不会考虑大量增加L1缓存的大小。但是会考虑增加L1缓存的组相联度,原因如下所示:

  • 很多处理器访问缓存需要两个时钟周期,因此对命中时间不敏感
  • 引入多线程后,冲突缺失增加,提高组相联度对于降低冲突缺失更友好

路预测

路预测也是降低命中时间的一种方法,其在缓存中保存一些额外的位,用于预测下一次缓存访问这个组时可能调用的块,即将设置多路选择器和比较标记并行执行。若预测结果与比较结果相同,则节省了设置多路器的时间;若预测结果与比较结果不同,则重新设置多路选择器,无性能损失。

缓存访问流水化

该方法也为了降低命中时间,其将命中时间分散到多个时钟周期中,缩短了时钟周期并提高了带宽(时钟周期提高),但是增加了发出载入指令到获取到数据的时钟周期数,增加了分支预测错误代价。

无阻塞缓存

无阻塞缓存指在产生缓存缺失后仍然允许进行缓存命中操作。对于阻塞缓存而言,若访问地址A产生缺失,则需要等待缺失处理完成并获取到对应数据DA后才能进行地址B的访问;对于无阻塞缓存,访问地址A产生缺失后,仍可以立刻对地址B进行访问,若地址B未缺失,可以立刻提供对应数据DB。这种方式可以将缺失代价用后续缓存访问掩盖,降低了缺失代价。

多组缓存

将一整块缓存分为多组,不同组之间可以并行访问,提高了缓存的带宽

关键字优先与提前启动

这种优化用于降低缺失代价,即对于某个地址的访问缺失后,传统的流程是将这个地址所属的块整个调入缓存后再提供数据,这两种优化方法的操作方式如下所示:

  • 关键字优先:从需要提取的地址开始将块载入,当提取到CPU请求的数据后立刻将其返回给CPU,随后块中剩下的数据以回卷的方式读入缓存
  • 提前启动:仍然从块的起始地址开始载入块,当提取到CPU请求的数据后立刻将其返回给CPU,随后继续载入块

这两种方法的核心思想都是通过尽快获取CPU请求的数据,随后再考虑块的载入的方法降低缺失代价

合并写缓冲区

合并写缓冲区用于降低写操作产生的缺失代价,对于写操作而言,一般通过写缓冲区进行,当进行块的写回操作时,将数据写回写缓冲区,此时缓存认为写操作已经完成。若写缓冲区满,则写操作必须等待写缓冲区非满时才继续进行,此时产生写操作的时间代价。

合并写缓冲区指在将数据写回写缓冲区时,查询写缓冲区已有的数据,若有相同地址的数据,直接覆盖;若有连续地址,可以将其合并为一个写操作,充分利用写带宽资源。如上图所示,上方为未执行写合并时的情况,连续的四个写访问将写缓冲区填满,引起写操作阻塞;下方为写合并的情况,将四个连续地址的写入合并,不仅充分利用了写缓冲区空间,还充分利用了写带宽。需要注意的是,对于某些对IO访问,不可使用写合并(写连续的控制和数据流),需要使用标记标明其不可合并。

编译器优化

不改变硬件而通过软件的优化充分利用数据的局部性以降低缺失率,其核心思想为尽量将连续访问的数据人工的置于一个数据块中,常见的优化有以下两种:

  • 循环交换:假设对于一个数组a[100][200],按先y后x的顺序访问(a[0][0]a[1][0],....)下为每次步幅为200的访问,此时每次访问都可能产生依次缓存缺失。若按先x后y的顺序访问(a[0][0]a[0][1],...)则为每次步幅为1的访问,此时访问块开头的数据产生缓存缺失,块内的数据均不产生缺失,充分利用了数据局部性降低了缺失率
  • 分块:对于大型矩阵,将其分为若干个小矩阵(可以放进一个块中)循环处理可以降低缺失率,因为每次访问一个小矩阵仅产生依次缓存缺失

预取数据

根据数据的局部性,一个数据被用到后,其附近的数据也很有可能被用到。以此为原理,可以使用数据预取的方式降低缺失率,数据预取有两种分类:

  • 硬件预取:使用硬件预取数据,额外设置一个数据读入缓冲区。当发生缺失需要调入一个块时,缺失的块调入缓存,将下一个块(缺失的块紧邻的下一个块)调入读入缓冲区。若下次发生缺失且缺失的就是读入缓冲区的块,则直接从读入缓冲区将其调入缓存;若不是读入缓冲区的块,则将读入缓冲区中的块置无效,重新从主存中读取块(也使用读缓冲区预取下一个块)
  • 软件预取:通过软件控制预取的过程(编译器在指令中将数据读入指令提前),此时需要编译器小心设计预取的时间,保证预取产生优化

虚拟存储器

虚拟存储器方案将物理存储器划分为块,分配给不同的进程,每个进程仅能访问属于自己的块,虚拟存储器用于自动的处理主存储器(内存)和辅助存储器(硬盘)两级存储结构。虚拟存储器提供虚拟地址,一个进程执行需要连续的虚拟地址空间,但这个连续的虚拟地址空间对应的物理地址可能是非连续的,甚至部分可能不在主存上,虚拟存储器用于自动的处理这些问题。虚拟地址和物理地址的对应关系如下所示:

vaddr.PNG

虚拟存储器系统可根据划分方法分为三类:

  • 页式:使用大小固定的块
  • 段式:使用大小不固定的块
  • 段页式:一个段由多个大小固定的页组成,一个段包括的页数不固定(一定是整数)

页和段的优缺点如下表所示:

指标
信息长度 1(地址) 2(地址、长度)
可见性 不可见 可见
替换块 容易 复杂(需要查找一个可容纳该段的空余地址)
磁盘通信 高效(每次长度相同) 不一定(小的段可能仅几个字节)

层次结构

对于虚拟存储器,也需要考虑类似缓存的四个问题:放置、识别、替换和写入。需要注意的是,由于虚拟存储器管理的低级存储器为硬盘(磁盘或SSD),单位为页,因此缺失代价很大。所以在考虑上述问题时,优先考虑降低缺失率以提高性能:

  • 放置:为了降低缺失率,一般使用全相联的方式,即一个页或段可以放置在主存的任意位置
  • 识别:识别用页表或段表实现,即在主存中划分一部分区域,用于存储虚拟地址页号-物理起始地址的表。需要查找一个块时,需要访问两次主存:第一次访问页表获得其物理地址,第二次根据物理地址访问数据
  • 替换:为了将缺失率降低,因此采用替换最近最少使用块(LRU)的方式
  • 写入:考虑写入一个块需要消耗很多时钟周期,因此广泛使用写回的方式

快速地址变换(优化)

对于使用虚拟地址的系统而言,使用虚拟地址获取数据需要执行两次内存访问:第一次访问分页表获得对应的物理地址;第二次访问物理地址获取数据。为了加速这一类似缓存命中的过程,使用快速地址变换技术,即引入变换旁视缓冲区(TLB)。TLB的组织方式类似缓存,区别在于数据局域不是一个数据块而是一个物理地址。TLB结构如下图所示:

ch2_tlb.PNG

虚拟地址包括虚拟页号和页偏移量,与缓存中的数据块偏移量相同,虚拟地址和物理地址的偏移量相同,因此这个部分不需要包含在页表或TLB中。TLB中以虚拟页号为标记(key为虚拟页号),存储一些状态位和物理地址(value为物理地址)。执行变换时,首先将虚拟页号发给TLB的每一个表项,若标记匹配(虚拟页号与标记字段相同且有效位拉高),则TLB命中,将对应表项存储的物理地址和偏移量组合为物理地址。若不匹配,则根据页偏移量访问页表,将对应的物理地址调入TLB中在执行命中操作。

保护

虚拟存储器一个功能是保护数据,即只让一个进程访问其对应的地址空间而不能访问其他地址空间,尤其是需要受保护的地址空间。首先每个进程具有其独有的分页表,使其仅能获取属于自己的页对应的物理地址,其次还有以下方式对内存进行保护:

  • 界限检查:在分页表或分段表中标明偏移量的上界,即提供的偏移量不可超过这个固定的值,阻止其访问超过上界的地址空间
  • 划分共享与保护空间:将地址空间划分为共享和独享两个部分,并使用不同的分页表,分页表中标记页的等级,仅有访问等级高于页的等级的访问才能进行
  • 调用门:在分页表中提供特殊的表项,其数据域中为物理地址而不为基地址,访问提供的偏移量被忽略。即强制对指定页的访问落到指定地址,即只能访问页中的指定地址。

虚拟存储器与缓存

对于同时具有虚拟存储器和缓存的系统,缓存具有多种选择方式,包括:

  • 逻辑索引+逻辑标记:按逻辑地址查找组,比对的标记(地址高位)为逻辑地址高位
  • 逻辑索引+物理标记:按逻辑地址查找组,比对的标记为物理地址高位
  • 物理索引+物理标记:按物理地址查找组,比对的标记位物理地址高位

对于逻辑索引+逻辑标记这种组合,直接使用逻辑地址进行命中操作,若命中则直接获取数据,不存在物理地址变换步骤。对于物理索引+物理标记的组合,首先使用TLB进行地址变换操作,随后执行缓存命中操作。对于逻辑索引+物理标记的组合,访问的方式如下所示:

cache_with_tlb.PNG

上图为一个TLB+二级缓存的系统,一级缓存为逻辑索引+物理地址,二级缓存为物理地址+物理缓存。访问过程首先CPU给出虚拟地址,以下两个步骤并行执行:

  • 缓存:根据逻辑地址中的索引字段(L1缓存索引)在L1缓存中查找到对应的组
  • TLB:使用虚拟页编号进行地址变换,将其转为物理地址

随后,使用TLB提供的物理地址与缓存对应组中的标志(物理标志)进行比较,若匹配,则缓存命中,向CPU提供数据。若不匹配,则L1缓存缺失,使用物理地址访问L2缓存进行命中操作。

举例:Opteron存储器管理

Opteron虚拟存储器部分使用AMD64的虚拟存储器结构。AMD64中,64位虚拟地址被映射到52位物理地址,剩下的12位用于提供保护和使用信息。在Opteron中,使用48位虚拟地址和40位物理地址,AMD64中虚拟地址的高16位(16+48=64)为符号位扩展。AMD64为了管理64位页表使用了4级页表,Opteron中每个页表9位,偏移量12位,即有48=9+9+9+9+12,高一级页表中存储的是低一级页表的地址,如下所示:

tlb_example.PNG

对于虚拟地址,首先根据高9位查询页映射表L4,获得对应页目录指针表的起始地址,再以38~30位为偏移量查询页目录指针表获取页目录表地址,依次类推查找到页表,获取对应的物理地址,和页偏移量组合产生物理地址。每个表中的表项中的数据都分为以下两个字段:

  • 数据:下一级表的物理地址
  • 保护和使用信息:数据的保护信息

由于有四级页表,每个页表都有保护和使用信息,执行时服从最低级页表的保护和使用信息。为了实现快速地址变换,Opteron使用了4个TLB,两个用于指令访问两个用于数据访问。

举例:Cortex-A8与I7

Cortex A8缓存结构

Cortex A8存储结构为一个两级缓存的结构:

  • 第一级缓存为缓存对(指令缓存和数据缓存分离),使用虚拟索引和物理标记。大小为16KB或32KB,块大小为64B,组织形式为四路组相联,使用路预测和随即替代算法。
  • 第二级缓存使用物理索引和物理标记,为8路组相联,大小为128KB~1MB,块大小为64B。

虚拟地址和物理地址的转换使用TLB管理,TLB的容量为32项全相联,支持页面大小可变,替换算法为一种轮询算法,当发生TLB缺失时,使用硬件轮询主存页表进行处理。其整体操作方式与[虚拟存储器与缓存]中所述相同。

I7缓存结构

i7的缓存结构要远远比A8复杂,其具有三级缓存和两级TLB,三级缓存的信息如下所示:

特性 L1 I-cache L1 D-cache L2缓存 L3缓存
大小 32KB 32KB 256KB 每个核心2MB
相联度 四路 八路 八路 十六路
访问延迟 4个周期(流水) 4个周期(流水) 10个周期 35个周期
替代方法 伪LRU 伪LRU 伪LRU 带有序选择算法的伪LRU
索引 虚拟索引 虚拟索引 物理索引 物理索引
物理标记 物理标记 物理标记 物理标记

同时使用两级TLB,第一级TLB指令与数据分离,如下所示:

特性 I-TLB D-TLB TLB
大小 128 64 512
相联度 四路 四路 四路
替换算法 伪LRU 伪LRU 伪LRU
访问延迟 1个周期 1个周期 6个周期
7个周期 7个周期 访问页表,不确定

存储器的整体结构如下图所示:

i7_memory.PNG
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 156,907评论 4 360
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 66,546评论 1 289
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 106,705评论 0 238
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 43,624评论 0 203
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 51,940评论 3 285
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 40,371评论 1 210
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 31,672评论 2 310
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 30,396评论 0 195
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 34,069评论 1 238
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 30,350评论 2 242
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 31,876评论 1 256
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 28,243评论 2 251
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 32,847评论 3 231
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 26,004评论 0 8
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 26,755评论 0 192
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 35,378评论 2 269
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 35,266评论 2 259

推荐阅读更多精彩内容

  • 在简单模型中,存储器系统是一个线性的字节数组,CPU能够在一个常数访问每个存储器位置。 虽然是一个行之有效的模型,...
    ShawnPanCn阅读 960评论 0 0
  • 计算机体系中数据存储设备主要分为易失性设备(如内存DRAM)和非易失性设备(如磁盘,固态硬盘等),计算机体系架构中...
    振锋chin阅读 721评论 0 2
  • ORA-00001: 违反唯一约束条件 (.) 错误说明:当在唯一索引所对应的列上键入重复值时,会触发此异常。 O...
    我想起个好名字阅读 4,861评论 0 9
  • 第6章类文件结构 6.1 概述 6.2 无关性基石 6.3 Class类文件的结构 java虚拟机不和包括java...
    kennethan阅读 854评论 0 2
  • 计算机系统漫游 代码从文本到可执行文件的过程(c语言示例):预处理阶段,处理 #inlcude , #defin...
    willdimagine阅读 3,504评论 0 5