首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 163 毫秒
1.
为了降低高速缓存的动态功耗,提出了一种路预测选择结构来降低传统的高速缓存的功耗。通过选择一路访问,而不是访问所有路高速缓存,使得功耗得到降低。同时,提出的路预测选择结构通过增加特定的标志寄存器,具备可配置功能,实现了路选择高速缓存和直接映射高速缓存之间的切换。实验结果表明:同传统的2路组相联高速缓存相比,采用路预测选择技术实现的高速缓存在访问期间的动态功耗降低约32%~40%,高速缓存缺失率基本相同。  相似文献   

2.
为了降低每时钟周期的平均及峰值功耗,在两级扫描结构基础之上提出时钟屏蔽及它的改进策略。利用测试激励压缩条件和测试响应压缩条件对电路进行划分,在每个时钟周期激活子电路的方法来降低峰值。实验结果表明:采用改进策略测试的总功耗平均降低到全扫描的0.39%,峰值功耗平均降低到全扫描的16.26%,捕获阶段的峰值平均降低到全扫描的10.97%。从结果可以看出,采用多级时钟屏蔽策略进行电路测试,与传统的全扫描测试方法相比,测试功耗及其他影响扫描测试代价的参数均有明显的降低。  相似文献   

3.
采用时钟屏蔽策略降低测试功耗   总被引:1,自引:0,他引:1  
为了降低每时钟周期的平均及峰值功耗,在两级扫描结构基础之上提出时钟屏蔽及它的改进策略。利用测试激励压缩条件和测试响应压缩条件对电路进行划分,在每个时钟周期激活子电路的方法来降低峰值。实验结果表明:采用改进策略测试的总功耗平均降低到全扫描的0.39%,峰值功耗平均降低到全扫描的16.26%,捕获阶段的峰值平均降低到全扫描的10.97%。从结果可以看出,采用多级时钟屏蔽策略进行电路测试,与传统的全扫描测试方法相比,测试功耗及其他影响扫描测试代价的参数均有明显的降低。  相似文献   

4.
由于SLP自动向量化算法使用的启发式策略会丢失一定的向量化机会,本文提出一种基于动态规划的自动向量化方法DPSLP,该方法采用比SLP更加激进的策略在基本块内寻找候选的SIMD指令分组,依据动态规划方程计算指令分组的代价并从众多指令分组中选择最优的分组进行向量化转换.实验结果显示,DPSLP与SLP相比测试程序的运行时间平均减少了8%,静态指令代价平均减少10%,平均向量宽度增加66.4%.   相似文献   

5.
现有的共乘路径算法大多只专注于最少的用时与最低的成本,而缺少对乘客共乘意愿比例以及可接受绕行偏差范围的界定,针对这一现象构建了一种考虑乘客偏好的动态共乘策略模型。对乘客和车辆分别进行查找模块处理和筛选模块分类,删除掉不满足要求的车辆以减少乘客和车辆的动态实时匹配时间,然后利用插入算法获得最优路径匹配。结果表明,所提算法可以快速高效地为乘客匹配到满足要求的最优车辆。相比常规算法,考虑乘客合共乘意愿以及绕行偏差的共乘算法,乘客的平均等待时间降低了7.0%;总社会收益提高了44.7%;动态共乘匹配效率提高了34.2%。另外,改变乘客的时间窗长度也可以显著提高共乘效果。  相似文献   

6.
为了提高低温环境下赛区内行人的出行效率、降低行人出行安全风险,首先从信息干预的角度,通过建立路网VMS信息发布与客流拥挤状态间的互动反馈机制以及路网VMS信息发布布局动态优化模型,提出了一种基于客流实时响应的路网VMS(可变信息板)自适应信息发布策略;然后,针对该策略,提出了基于多智能体的场景仿真方法;最后,以某寒冷赛事赛区为例,对有无VMS信息发布策略下行人入场、散场场景进行仿真。结果表明,与无VMS信息发布策略下的行人出行相比,在该策略下短时出行客流占比有所增加,入场阶段个人平均行走时间节省约2.6%,道路最大拥挤度降低约20.45%;散场阶段个人平均行走时间节省约7.0%,道路最大拥挤度降低约10.51%。该研究可为赛区管理者调控客流、提高观赛体验等提供理论基础和数据支撑。  相似文献   

7.
采用FLUENT软件对百叶窗煤粉浓缩器进行了气固两相流动的数值模拟研究,并与粒子动态分析仪(PDA)实验结果进行了对比,验证了两相流模型的合理性。对叶片缺级条件下的浓缩器流场进行了数值模拟研究,分析了叶片缺级对浓缩器性能的影响。结果表明,浓缩器缺少末级叶片和次末级叶片时,浓缩器性能降低较大。在浓缩器的实际应用中,要避免浓缩器在缺少末级叶片或同时缺少末级叶片和次末级叶片的条件下运行。  相似文献   

8.
段高速缓存器加载是微处理器保护方式下多任务调度、虚拟段式存储器管理及指令集使用频度较高的部分。文中探讨了段高速缓存器加载的数据结构和定义 ,给出了保护方式下段高速缓存器加载算法 ,提出了用于段高速缓存器加载的保护测试单元的细胞群结构。最后 ,用 EDA工具SYNOPSYS对段高速缓存器加载算法的微程序和段高速缓存器加载的保护测试单元 RTL级的 VHDL描述进行了综合与仿真 ,验证了其设计的正确性与有效性  相似文献   

9.
模糊测试中随机变异生成的测试数据破坏了目标程序的输入规范,导致测试数据无法通过验证,造成代码覆盖率低.针对这一问题,提出了一种变异策略动态构建的模糊测试数据生成方法,该方法利用插桩执行的反馈信息动态构建控制变异策略和关键字变异策略,指导模糊器变异出高覆盖率的测试数据.实验结果表明,与随机变异相比,该方法平均使代码分支覆盖率提高了约40%;该方法能够有效提高模糊测试的效率,具有较强的实用价值.   相似文献   

10.
提出了一种基于编码分配的报片交换无缓冲路由器(FBEA-BLESS),通过非偏转和偏转2级分配策略来减小路由器的关键路径延时,并采用go-stop-steer (GOSS)机制来避免网络的活锁.结果表明,与基准的无缓冲路由器(BLESS)相比,所提出的FBEA BLESS的网络平均延迟降低了29.4%.  相似文献   

11.
To improve efficiency of search engines,the query result cache has drawn much attention recently.According to the query processing and user' s query logs locality,a new hybrid result cache strategy which associates with caching heat and worth is proposed to compute cache score in accordance with cost-aware strategies.Exactly,query repeated distance and query length factor are utilized to improve the static result policy,and the dynamic policy is adjusted by the caching worth.The hybrid result cache is implemented in term of the document content and document ids(doclds) sequence.Based on a score format and the new hybrid structure,an initial algorithm and a new routing algorithm are designed for result cache.Experiments' results show that the improved caching policies decrease the average response time effectively,and increase the system throughput significantly.By choosing comfortable combination of page cache and doclds cache,the new hybrid caching strategy almost reduces more than 20%of the average query time compared with the basic pageonly cache and docld-only cache.  相似文献   

12.
针对传统LRU替换策略无法感知包含式缓存时间局部性的问题,提出一种适用于包含式缓存的共享末级缓存(SLLC)管理策略. 通过提前将无用数据存储于一个开销较小的旁路缓存,可以避免其与复用频率较高数据对SLLC的资源竞争,同时维护了包含属性. 为进一步寻找复用性最低的数据作为替换对象,构建一种局部性检测电路,有助于将此类数据尽早驱逐出SLLC,文中提出一种统一的管理算法,受益于两种预测器的相互校准,从而达到无用块旁路和低重用块替换的目的. 实验结果表明,所提策略将SLLC缺失率平均降低21.67%,预测精度提升至72%,而硬件开销不到SLLC的1%.   相似文献   

13.
为了降低系统最坏响应时间(WCRT),提出了一种基于任务映射与缓存划分的WCRT优化方法.该方法分为两个阶段,第一阶段采用任务在最佳缓存容量下的最坏情况执行时间(WCET)进行任务映射;第二阶段以满足系统的缓存容量约束为原则对映射后的任务进行缓存容量回收及任务映射的再调整,同时在两个阶段均兼顾系统的负载均衡.实验结果表明,该方法在降低系统最坏响应时间及执行效率方面都能获得良好的效果,系统最坏响应时间相比GCP算法平均降低了6.7%,相比ILP方法有更快的执行效率.   相似文献   

14.
在嵌入式处理器中,Cache的功耗所占的比重越来越大.针对不同类型的应用程序对指令Cache和数据Cache的容量实时需求不同,提出了一种新的容量联合分配算法,该算法可以均衡考虑程序运行时对指令 Cache和数据Cache的实时需求,动态调整一级Cache的容量和配置,从而更有效地利用Cache资源.Mibench仿真结果表明,采用容量联合分配算法的分离Cache与传统分离Cache相比,平均能量消耗降低了29.10%,平均能量延迟积降低了33.38%.  相似文献   

15.
Very Long Instruction Word(VLIW) architectures are commonly used in application-specific domains due to their parallelism and low-power characteristics. Recently, parameterization of such architectures allows for runtime adaptation of the issue-width to match the inherent Instruction Level Parallelism(ILP) of an application.One implementation of such an approach is that the event of the issue-width switching dynamically triggers the reconfiguration of the data cache at runtime. In this paper, the relationship between cache resizing and issue-width is well investigated. We have observed that the requirement of the cache does not always correlate with the issuewidth of the VLIW processor. To further coordinate the cache resizing with the changing issue-width, we present a novel feedback mechanism to "block" the low yields of cache resizing when the issue-width changes. In this manner, our feedback cache mechanism has a coordinated effort with the issue-width changes, which leads to a noticeable improvement of the cache performance. The experiments show that there is 10% energy savings as well as a 2.3% cache misses decline on average achieved, compared with the cache without the feedback mechanism.Therefore, the feedback mechanism is proven to have the capability to ensure more benefits are achieved from the dynamic and frequent reconfiguration.  相似文献   

16.
研究了深亚微米和3D条件下的cache访问延迟的设计和模拟技术.对不同容量、不同关联度、不同技术的cache进行了模拟.实验结果显示,深亚微米条件下,互联网络成为影响cache访问延迟的重要因素,40 nm工艺下它可占cache总访问延迟的61.1%;tag比较器的延迟对cache访问延迟的影响可达9.5%.但后者并未得到已有模型的重视.鉴于此,对已有的cache访问延迟模型进行了改进.基于3D条件下多核处理器最后一级大容量cache(L3C)的容量不断增长的趋势,eDRAM在功耗和面积上的优势使其更具吸引力.模拟结果显示,在容量为1 MB, 4 MB及大于16 MB的L3C设计下,相同容量的eDRAM cache延迟比SRAM cache小,差值为8.1%(1 MB)至53.5%(512 MB).实验结果显示,未来3D多核处理器设计中eDRAM是设计L3C的更佳选择.  相似文献   

17.
层次化网络策略管理关键技术的研究与实现   总被引:1,自引:0,他引:1  
提出了层次化的网络策略管理模型,其特点是引入了多级策略决策点(PDP),在策略执行点(PEP)中引入本地PDP和缓存,PDP中也引入缓存,扩展了IETF策略管理框架.实现了将高层策略规范转换为各种运行期描述的策略编译器及其后端.将策略作为运行期对象实现,可以在域服务中方便地访问策略对象并将其自动分发到执行组件,减轻了PDP的负担,提高了被管设备的智能和网络管理的自动化程度,提高了系统的可扩展性和健壮性。  相似文献   

18.
针对大数据负载时磁盘I/O阻塞造成的Web服务器性能下降的问题,提出了应用程序控制缓冲(ACC)方法.其核心是,缓冲跟踪模块根据应用程序的文件访问过程来跟踪内核中的文件缓冲状态,缓冲控制模块进行缓冲替换和预取,保持文件缓冲有足够的空闲空间.这样,服务器可在用户空间控制文件缓冲,从而准确判断文件是否在缓冲之中,并依此来调度请求,以提高处理器和磁盘的I/O并行度.同时,服务器可采用适应自身特点的缓冲和预读策略,以提高缓冲的命中率.作为示例,将ACC在Flash服务器中实现,实现中选用了“金字塔选择”缓冲算法.实验表明,在大数据负载下使用ACC的Flash服务器性能有很大的提高,即便在数据负载稍大于物理内存空间的情况下,服务器的吞吐率仍可提高约24.4%,而当数据负载超出物理内存2~3倍时,吞吐率可提高3~4倍。  相似文献   

19.
针对Web集群服务器请求内容的分布特点,提出了一种基于关联内容的请求分发(ACARD)算法.该算法首先以缓存大小为限制,采用FP tree方法挖掘用户的Web使用模式,并把它们所对应的文档映射到不同的后端服务器,然后由前端服务器根据请求的内容匹配相应的模式并进行转发.这种文档的自适应分布提高了集群系统的磁盘利用率和缓存命中率.实验表明,基于内核态的请求分发算法的性能远优于基于用户态的算法,而且在内核态下,ACARD相对加权最小连接算法的系统平均吞吐量可提高20 4%.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号