通用处理器高带宽访存流水线研究

通用处理器高带宽访存流水线研究

ID:36533036

大小:305.50 KB

页数:14页

时间:2019-05-11

通用处理器高带宽访存流水线研究_第1页
通用处理器高带宽访存流水线研究_第2页
通用处理器高带宽访存流水线研究_第3页
通用处理器高带宽访存流水线研究_第4页
通用处理器高带宽访存流水线研究_第5页
资源描述:

《通用处理器高带宽访存流水线研究》由会员上传分享,免费在线阅读,更多相关内容在学术论文-天天文库

1、通用处理器的高带宽访存流水线研究张浩范东睿林伟钱学海龙国平(中国科学院计算技术研究所北京100080)摘要:存储器访问速度的发展远远跟不上处理器运算速度的发展,日益严峻的访存速度问题严重制约了处理器速度的进一步发展。降低load-to-use延迟是提高处理器访存性能的关键,在其他条件确定的情况下,增加访存通路的带宽是降低load-to-use延迟的最有效途径,但增加带宽意味着增加访存通路的硬件逻辑复杂度,势必会增加访存通路的功耗。本文的工作立足于分析程序固有的访存特性,探索高带宽访存流水线的设计和优化空间,分析程序访存行为

2、的规律性,并根据这些规律性给出高带宽访存流水线的低复杂度、低延迟、低功耗解决方案。本文的工作大大简化了高带宽访存流水线的设计,降低了关键路径的时延和功耗,被用于指导Godsonx处理器的访存设计。在处理器整体面积增加1.7%的情况下,将访存流水线的带宽提高了一倍,处理器的整体性能平均提高了8.6%。关键字:高带宽、访存流水、高速缓存、TLBHigh-BandwidthMemoryAccessingPipelineofGeneralPurposeProcessorZhangHao,FanDongrui,LinWei,Qian

3、Xuehai,LongGuoping(InstituteofComputingTechnology,ChineseAcademyofSciences,Beijing,100080)[Abstract]:Thereisanear-exponentialincreaseinprocessorspeedandmemorycapacity.However,memorylatencieshavenotimprovedasdramatically,andaccesstimesareincreasinglylimitingsystemp

4、erformance.Lowload-to-uselatencyisakeytoapproachhighmemoryperformance,andincreasingthebandwidthofmemorypipelinealwaysworks.Buthighbandwidthbringsmorecomplexityandneedsmorepower.Ourworkisbasedontheanalysisoftheapplications,andweintendtofindtheheadroomoftheperforman

5、ceofthememorypipeline.Wefindsomeusefulcharactersofmemoryoperationsandwegiveanoptimizeddesignofhighbandwidthmemorypipeline,whichhaslowcomplexity,lowlatencyandlowpower.OurdecisionsareusedtoinstructthedesignGodsonxprocessor,althoughthebandwidthofmemoryaccessisdoubled

6、andtheperformanceisincreasedby8.6%,theextraareaisonly1.7%oftheoriginaldesign.[KeyWords]:HighBandwidth,MemoryPipeline,Cache,TLB1.引言根据摩尔定律,微处理器的速度每十年增长十倍以上,而常用存储器(DRAM)的访存时间却只是缩短到原来的一半。因此,相对于处理器来说,访存延迟以每十年5倍的速度增长。从1986年到2000年,处理器速度的年增长率为55%,而存储器速度的年增长率仅为10%,按照这种速度推算

7、可知,处理器与存储器以及通信性能上的差距不断增加,造成了系统结构的失衡,形成了阻碍性能提升的"内存墙"[1,2]。日益严峻的访存速度问题正在成为影响处理器性能的瓶颈,严重制约了处理器速度的进一步发展。降低load-to-use延迟是提高处理器访存性能的关键,高速缓存cache的引入就是为了缓解这一问题[3,4],通过位于处理器主流水线和存储器之间的这层存储逻辑,处理器可以在大多数情况下避免直接访问内存,提高了访存的性能,延缓了“内存墙”问题。目前几乎所有的主流通用处理器都在流水线中包含高速缓存逻辑,并且高速缓存逻辑往往被作

8、为独立的流水级。在其他条件确定的情况下,增加访存通路的带宽是降低load-to-use延迟的最有效途径,但增加带宽意味着增加访存通路的逻辑复杂度,并且访存通路上的RAM逻辑都需要提供双端口。这些复杂度上的增加势必会增加访存通路的时延和功耗。本文的工作立足于分析程序固有的访存特性,探索高带宽访存流水线的设

当前文档最多预览五页,下载文档查看全文

此文档下载收益归作者所有

当前文档最多预览五页,下载文档查看全文
温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,天天文库负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。