首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 296 毫秒
1.
摘要:
提出了针对多核处理器的2级缓存L2 Cache设计方案,以高效地处理访存请求.采用优化的目录协议维护与1级缓存L1 Cache的数据一致性,并结合片上目录来维护L2 Cache之间及其与3级缓存L3 Cache之间的一致性;在L2 Cache设计中,提出了基于MESIA F的Cache一致性协议,实现了最早返回取数数据的短流水线设计;采用相关链和远程链机制解决了监听应答导致的死锁问题;通过基于流水线的睡眠与唤醒技术降低了漏流功耗;通过细粒度门控时钟降低了其动态功耗.后端设计结果表明,经过优化设计的L2 Cache达到了频率2 GHz的设计目标,并已成功应用于某16核处理器芯片. 关键词:
中图分类号: 文献标志码: A  相似文献   

2.
针对多核私有Cache结构面临的容量失效问题,提出了一种基于细粒度伪划分的核间容量共享机制.通过在细粒度层次为每个Cache Bank设置加权饱和计数器阵列来统计和预测各线程的访存需求差异情况,控制各个处理器核在每个Cache Set上的私有域与共享域划分比例,并以此指导各处理器核上的牺牲块替换、溢出与接收决策,利用智能的核间容量借用机制来均衡处理器间访存需求差异,缓解多核私有Cache结构面临的容量失效问题.在体系结构级全系统模拟器上的实验结果表明,该机制能够有效改善多核私有Cache结构的容量失效问题,降低多线程应用程序的平均存储访问延迟.  相似文献   

3.
网络处理器中的高速缓冲机制及其有效性分析   总被引:1,自引:0,他引:1  
高速缓冲机制(Cache)在网络处理器中的应用得到广泛的关注.为了指导新的网络处理器的设计,对cache机制的有效性进行系统化的研究.该文截取实际网络链路上的流量,对数据包处理过程进行模拟,并分析cache机制对网络处理器的各性能参数的影响.实验表明: cache机制可有效缓解数据包突发性的到达给数据处理带来的压力,提高网络处理器的吞吐量、降低丢包率和排队延迟、减少多线程机制对处理模式的敏感程度.因此, cache机制对网络处理器中已有的延迟隐藏机制是一个很好的补充.  相似文献   

4.
面向按序执行处理器开展预执行机制的设计空间探索,并对预执行机制的优化效果随 Cache 容量和访存延时的变化趋势进行了量化分析。实验结果表明,对于按序执行处理器,保存并复用预执行期间的有效结果和在预执行访存指令之间进行数据传递都能够有效地提升处理器性能,前者还能够有效地降低能耗开销。将两者相结合使用,在平均情况下将基础处理器的性能提升 24. 07% ,而能耗仅增加 4. 93% 。进一步发现,在 Cache 容量较大的情况下,预执行仍然能够带来较大幅度的性能提升。并且,随着访存延时的增加,预执行在提高按序执行处理器性能和能效性方面的优势都将更加显著。  相似文献   

5.
面向按序执行处理器开展预执行机制的设计空间探索, 并对预执行机制的优化效果随 Cache 容量和访存延时的变化趋势进行了量化分析。实验结果表明, 对于按序执行处理器, 保存并复用预执行期间的有效结果和在预执行访存指令之间进行数据传递都能够有效地提升处理器性能, 前者还能够有效地降低能耗开销。将两者相结合使用, 在平均情况下将基础处理器的性能提升 24. 07% , 而能耗仅增加 4. 93% 。进一步发现, 在 Cache 容量较大的情况下, 预执行仍然能够带来较大幅度的性能提升。并且, 随着访存延时的增加, 预执行在提高按序执行处理器性能和能效性方面的优势都将更加显著。  相似文献   

6.
缓存技术在Web开发中得到了广泛的应用,合理的缓存方案可以减轻服务器负担,提升系统性能。采用Asp.net Cache Memcached缓存技术相结合的方式能够有效地增强系统的缓存性能。本文首先介绍了Asp.net 自身Cache类与Memcached缓存各自的工作原理,结合Asp.net自身缓存的高速访问性和Memcached的数据共享等各自优势,提出了.Net内部缓存与Memcached外部缓存相结合的缓存机制,最后通过测试数据得出结论,这种内外相结合的缓存方式有效地解决了Asp.net自身缓存在分布式应用下不能提供数据共享的不足,提高了Web应用的整体性能。  相似文献   

7.
一种嵌入式硬件多线程处理器的研究   总被引:1,自引:1,他引:0  
提出了一种基于同时多线程技术的硬件多线程处理器设计.通过处理器内部的硬件机制来完成对多线程的调度管理,实现基于硬件的时间片轮询多线程调度机制.最大程度地减少操作系统中关于线程调度的开销,提高处理器执行多用户线程时的整体效率,简化了用户在多线程条件下的编程复杂度,增强了多线程运行环境下处理器对线程的保护.  相似文献   

8.
同时多线程处理器每周期从多个活动线程取指令执行,极大地提高了处理器的性能,线程调度策略直接影响SMT处理器的性能.详细分析了SMT中导致指令队列阻塞的各种因素,以及它们对系统性能的影响.在ICOUNT取指调度策略的基础上,提出了一种基于门限的线程调度策略,它考虑了各种导致IQ阻塞的因素及其对IQ效率的影响程度,相对ICOUTNT策略,将IPC平均提高了4.141%.在此基础上,通过统计分析两次数据Cache缺失之间的距离,提出了数据Cache预测技术,又将IPC提高了0.65%.  相似文献   

9.
在嵌入式处理器中,Cache的功耗所占的比重越来越大.针对不同类型的应用程序对指令Cache和数据Cache的容量实时需求不同,提出了一种新的容量联合分配算法,该算法可以均衡考虑程序运行时对指令 Cache和数据Cache的实时需求,动态调整一级Cache的容量和配置,从而更有效地利用Cache资源.Mibench仿真结果表明,采用容量联合分配算法的分离Cache与传统分离Cache相比,平均能量消耗降低了29.10%,平均能量延迟积降低了33.38%.  相似文献   

10.
内置缓存机制是内容中心网络(Content Centric Networking,CCN)研究的关键问题之一.现有的CCN缓存机制在缓存节点的选择时往往缺乏对节点缓存状态和负载情况等动态信息的综合考虑,因此无法准确反映节点间的缓存状态差异,进而影响了缓存决策的合理性.提出了一种基于缓存压力的选择性缓存机制(Cache Pressure Based Selective Caching,CPBSC).该机制利用节点的缓存占用率和缓存替换率评估节点的缓存压力,并结合内容的流行度实现缓存节点的合理选择.同时,根据内容的请求率和兴趣分组的剩余生存时间评估不同内容的缓存价值,以此实现缓存内容的合理替换.仿真结果表明,CPBSC有效地优化了缓存资源利用率,并显著提高了系统的整体缓存性能.  相似文献   

11.
工作负载分析是片上多处理器末级缓存设计的关键先导工作。分析了一组访存密集型多线程RMS(recognition-mining-synthesis)工作负载工作集大小、数据共享行为和空间局部性等访存行为,研究了末级缓存的设计空间,探讨了未来片上多处理器的缓存体系结构设计。实验结果表明:大容量DRAM缓存有助于满足这组负载的大工作集对缓存容量的需求,使用128MB DRAM缓存比不使用时平均可以减少18%的L1缓存缺失延迟;共享缓存设计比私有设计性能更好,8MB的共享缓存可以比相同总容量的私有缓存提高25%的缓存性能;基于步长的硬件数据预取机制可以提高25%的性能。因此,对于访存密集型RMS负载,宜采用一个128MB的DRAM缓存、一个8MB片上SRAM缓存,结合一个8表项的流式预取器,构成缓存子系统。  相似文献   

12.
阐述了一个应用于网络存储的新集群架构,该架构的构建是将网络Cache技术与集群技术结合,其核心是节点服务器的缓存机制以及后台的集群决策.架构均衡了系统的负载,并充分利用资源,向用户提供稳定、快速的存储服务.架构节点使用普通PC计算机作为服务器,对于企业级的存储应用能达到最优性价比.讨论了集群架构、集群后台决策机制以及Cache调度算法.  相似文献   

13.
针对众核处理器,提出了一种基于计算资源划分机制的动态可重构技术.该技术以虚拟计算群为核心,设计了基于硬件支持的动态可重构子网划分和动态可重构的Cache一致性协议以及动态在线的计算资源调度算法,并对系统级多核仿真平台Gem 5进行了扩展.同时,采用实际测试结果验证了众核处理器中动态可重构技术的有效性.结果表明,动态可重构技术可以提高众核处理器的资源利用率,实现动态可重构的Cache一致性协议以及单一矩形物理子网覆盖的子网划分机制.  相似文献   

14.
为了加快网络对用户请求的响应速度,提出了层次代理缓存(层次Web Cache)的系统框架,最大限度地挖掘该层次Web Cache系统的功效,并给出了相关技术的解决方案.  相似文献   

15.
提出并实现了一种新的称为频度路径树的XML缓存模型,FTree Cache.新模型根据频繁查询路径模式对源XML文件进行投影,生成相应的缓存文件.对用户提交的查询进行判断,提取相应的缓存文件来响应.通过对XML的投影缓存,可以有效降低查询的响应时间和大大减少内存的占用量.实验表明了方法的有效性,对内存的占用大约是原来的20%,响应时间约为原来的43%.  相似文献   

16.
为了加快网络对用户请求的响应速度,提出了层次代理缓存(层次Web Cache)的系统框架,最大限度地挖掘该层次Web Cache系统的功效,并给出了相关技术的解决方案。  相似文献   

17.
以Jigsaw为代理服务器,对如何以数据库方式缓存Web信息作了分析与设计,并对数据库方式和文件方式的Web Cache进行了比较.进一步讨论了数据库方式Web Cache的改进方案.  相似文献   

18.
对于具有共享缓存结构的多核处理器,存在并行应用对共享缓存冲突访问导致性能下降的现象.为合理地分配共享缓存以有效地解决这类问题,提出了一种共享缓存分配方法,通过将并行应用对共享缓存访问未命中的情况进行分类与追踪,并根据建立的性能增益模型在行的粒度上进行动态地分配共享缓存,使系统的整体性能得到改善.实验结果表明,新算法能合...  相似文献   

19.
现代微处理器设计中,多级Cache是弥补CPu和存储器之间速度差异的有效途径之一,其中二级Cache对于提高存储系统的性能有着重要的作用.提出了一种支持多处理器系统的32位RISC处理器"龙腾"R2的二级Cache单元的设计方案,讨论了如何用MEI协议保证存储一致性,以及二级Cache控制器的设计和优化方法.仿真和综合结果证明,该设计满足处理器的要求.  相似文献   

20.
以Jigsaw为代理服务器,对如何以数据库方式缓存Web信息作了分析与设计,并对数据库方式和文件方式的Web Cache进行了比较.进一步讨论了数据库方式Web Cache的改进方案.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号