首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 406 毫秒
1.
面向按序执行处理器开展预执行机制的设计空间探索, 并对预执行机制的优化效果随 Cache 容量和访存延时的变化趋势进行了量化分析。实验结果表明, 对于按序执行处理器, 保存并复用预执行期间的有效结果和在预执行访存指令之间进行数据传递都能够有效地提升处理器性能, 前者还能够有效地降低能耗开销。将两者相结合使用, 在平均情况下将基础处理器的性能提升 24. 07% , 而能耗仅增加 4. 93% 。进一步发现, 在 Cache 容量较大的情况下, 预执行仍然能够带来较大幅度的性能提升。并且, 随着访存延时的增加, 预执行在提高按序执行处理器性能和能效性方面的优势都将更加显著。  相似文献   

2.
针对多核私有Cache结构面临的容量失效问题,提出了一种基于细粒度伪划分的核间容量共享机制.通过在细粒度层次为每个Cache Bank设置加权饱和计数器阵列来统计和预测各线程的访存需求差异情况,控制各个处理器核在每个Cache Set上的私有域与共享域划分比例,并以此指导各处理器核上的牺牲块替换、溢出与接收决策,利用智能的核间容量借用机制来均衡处理器间访存需求差异,缓解多核私有Cache结构面临的容量失效问题.在体系结构级全系统模拟器上的实验结果表明,该机制能够有效改善多核私有Cache结构的容量失效问题,降低多线程应用程序的平均存储访问延迟.  相似文献   

3.
面向按序执行处理器开展预执行机制的设计空间探索,并对预执行机制的优化效果随 Cache 容量和访存延时的变化趋势进行了量化分析。实验结果表明,对于按序执行处理器,保存并复用预执行期间的有效结果和在预执行访存指令之间进行数据传递都能够有效地提升处理器性能,前者还能够有效地降低能耗开销。将两者相结合使用,在平均情况下将基础处理器的性能提升 24. 07% ,而能耗仅增加 4. 93% 。进一步发现,在 Cache 容量较大的情况下,预执行仍然能够带来较大幅度的性能提升。并且,随着访存延时的增加,预执行在提高按序执行处理器性能和能效性方面的优势都将更加显著。  相似文献   

4.
针对驱动防滑策略与转矩最优分配策略的协调问题,基于实时粒子群优化算法,提出一种综合考虑车辆稳定性和经济性的综合转矩分配策略.以滑移率为控制目标的驱动防滑策略输出前、后轴转矩指令限值.以实时优化为优化方法的粒子群算法通过将驱动防滑策略输出的前、后轴转矩指令限值作为动态约束条件,使转矩最优分配策略可以在驱动防滑策略生效时正常运行.基于AVL-Cruise与Simulink平台,建立了整车经济性联合仿真模型,对综合转矩分配策略的优化效果进行分析.结果表明:在选择的3种循环工况下,100 km电耗平均减少了4.79%,续驶里程平均提高了5.49%,综合转矩分配策略在保证客车纵向稳定性的前提下,改善了燃油经济性.  相似文献   

5.
研究了一种新型的针对指令的可重构片上统一存储器架构,能通过配置信息动态地实现Cache和SPM的相互转换,并设计了一套基于Cache相变行为图的动态配置管理算法.为了满足程序执行不同阶段对片上存储资源的需求,对程序的执行特征进行研究并采用了一种基于程序跳转块的程序阶段动态监测与预测技术.通过对程序阶段的预测实现配置信息...  相似文献   

6.
针对片上多核处理器的二级Cache访问延时持续增加以及并行程序在运行时线程间执行速率差异大的问题,提出了一种基于共享感知的数据主动推送Cache技术(SAAPC).SAAPC技术充分考虑并行程序的系统性能由速度最慢的线程所决定这一重要特性,根据并行线程间读数据共享程度高以及共享读数据访问局部性好的特征,采用基于指令的方法来预测共享读数据流,在后行线程需要共享数据之前将其主动推送至该线程的一级Cache中去,从而减少较慢线程的数据访问延时,提高执行速率,降低较慢线程与先行线程间执行速率的差异.SAAPC技术避免了预取技术所带来的额外片外带宽增加的缺点.使用SESC模拟器对来自于SPLASH2测试程序集的5个存储敏感型并行程序进行了测试仿真,结果表明,与传统的共享Cache相比,使用SAAPC技术减少了并行线程间执行速率的差异,系统的每周期指令数平均提高了7%,最高达到13.1%.  相似文献   

7.
一种嵌入式软件WCET估计新方法   总被引:1,自引:0,他引:1  
在实时嵌入式系统设计中,计算在最坏情况下软件执行时间的上界是很必需的,它为软硬件划分和进程调度提供了依据.由于现代微处理器使用了基于Cache存储和指令预取技术,增加了准确确定这一上界的难度,为此提出了一种基于指令Cache和指令预取联合模型的嵌入式软件性能评估新方法.该方法通过使用控制流程图和Cache冲突图,在Cache分析中联合指令预取分析,使得估计最坏情况下嵌入式软件的执行时间上界更精确;并使用了整数线性预测方法,使得求解计算复杂度降低.实验结果表明该方法估计精度可以提高近5%.  相似文献   

8.
根据视频数据流的长程相关性特点,提出一种以太无源光网络中面向实时可变比特率视频的动态带宽分配算法.该算法利用自适应线性单步预测器对未来到达的平均视频流量进行预测,实时预测结果用于对下一个发送时隙的计算,使得带宽分配算法能够充分满足实时视频流量需求.仿真实验表明,所提出的算法能够准确地对实时可变比特率视频流量进行预测,有效地降低排队时延,减小队列长度并提高带宽利用率.  相似文献   

9.
一种用于B3G移动通信系统的无线资源管理方法   总被引:2,自引:0,他引:2  
分析了后三代(B3G)移动通信系统中无线链路的传输模型和所承载各种业务的QoS需求,提出一种可以提高系统性能的混合式无线资源管理方法.采用此方法设计出适用于多输入多输出(MIMO)无线信道和流媒体业务QoS要求的联合无线资源调度和功率分配的算法(JASPD算法).计算机仿真结果表明, 与传统的无线资源管理算法相比,JASPD算法能够在相同复杂度条件下使得系统容量平均提高10%,同时将业务的丢包率平均减少32%.  相似文献   

10.
同时多线程处理器每周期从多个活动线程取指令执行,极大地提高了处理器的性能,线程调度策略直接影响SMT处理器的性能.详细分析了SMT中导致指令队列阻塞的各种因素,以及它们对系统性能的影响.在ICOUNT取指调度策略的基础上,提出了一种基于门限的线程调度策略,它考虑了各种导致IQ阻塞的因素及其对IQ效率的影响程度,相对ICOUTNT策略,将IPC平均提高了4.141%.在此基础上,通过统计分析两次数据Cache缺失之间的距离,提出了数据Cache预测技术,又将IPC提高了0.65%.  相似文献   

11.
许多高性能嵌入式处理器都引入了多级缓存、硬件预取及软件预取等机制,为使支持软件预取的硬实时任务具有执行时间的可预测性,提出一种支持软件预取的缓存WCET分析方法. 该方法对多级缓存抽象解释模型进行了软件预取语义扩展,分析了软件预取对任务的最坏情况下性能和能耗的影响. 实验结果表明,该方法能够对支持软件预取的多级缓存行为进行有效分析;同时软件预取优化技术可使某些访存缺失较大的硬实时任务WCET平均减少22.9%,能耗平均降低24.1%.   相似文献   

12.
首先, 基于云计算应用模式, 提出一种能有效利用云存储架构的双层缓存技术. 通过在客户端和服务器端建立分布式缓存, 能有效避免用户频繁访问远端数据, 为用户构建轻量级的客户端, 解决了目前地学数据可视化软件大量占用用户本地存储容量的问题. 同时服务器端也避免了多次访问云存储文件系统, 减少了大量的数据检索与加载时间. 其次, 提出一种ARLS(association rule last successor)访问预测算法, 根据用户的历史访问记录, 利用关联规则挖掘用户的访问模式, 对其访问行为进行预测, 进而提前加载数据, 提高缓存命中率, 解决了用户在可视化过程中不断移动兴趣区域, 频繁更换渲染数据的问题, 能有效应对用户具有多种访问模式的情况, 提高了预测准确率. 实验结果表明, 该云存储架构显著减少了本地资源消耗, 访问预测算法的准确率在最差情形下可达47.59%, 平均准确率达91.3%, 分布式缓存的平均缓存命中率达95.61%, 可有效支持云端大规模地震数据的快速可视化.  相似文献   

13.
针对记录缓冲低功耗cache过滤大部分无效访问、降低功耗的同时无法降低静态功耗的问题,在记录缓冲基础上提出一种改进方案.设计了针对指令存储单元的状态控制电路,在相应的控制逻辑的驱动下自动将不常用的指令存储单元设置为休眠状态,从而有效节省cache的静态功耗.为验证方案的有效性,采用10个SPEC2000标准测试程序进行仿真,并与传统缓冲cache在功耗、性能及面积上进行比较.结果表明该方案在牺牲少量性能和面积的基础上可有效节省指令cache的静态和动态功耗.  相似文献   

14.
DVS(动态电压调度)和cache划分是用来节约嵌入式系统能耗的技术.两种技术的结合会具有更好的节能效果,而且有cache划分的其他优点,关键问题是如何为每个任务确定执行时的电压和cache大小来使系统能耗最小.在实时嵌入式系统中针对这一问题,提出了一个多项式时间复杂度算法.实验对比了多组测试集在不同算法下的能耗,结果表明,本算法在满足实时性约束条件下有效地降低系统能耗.  相似文献   

15.
一种并行的网格资源协同分配方法   总被引:2,自引:0,他引:2  
针对网格系统中资源协同分配的实时性问题,分析了现有的基于有向无环图的资源映射方法,提出了一种并行资源协同分配算法.该算法采用有向无环图表示每个应用,然后,将所得到的这些图合并成一个有向无环图并对其进行分层,最后,对每层中应用任务的资源分配问题并行处理.分析表明,该并行资源协同分配算法降低了系统中资源调度时间,提高了资源分配的效率,从而能够满足系统实时性要求.  相似文献   

16.
In this paper,a hybrid cache placement scheme for multihop wireless service networks is proposed. In this scheme,hot nodes in data transferring path are mined up by means of rout-ing navigation graph,and whole network is covered with network clustering scheme. A hot node has been chosen for cache place-ment in each cluster,and the nodes within a cluster access cache data with no more than two hops. The cache placement scheme reduces data access latency and workload of the server node. It also reduces the average length of data transferring,which means that fewer nodes are involved. The network system energy con-sumption decreased as involved relay nodes reduced. The per-formance analysis shows that the scheme achieves significant system performance improvement in network environment,with a large number of nodes.  相似文献   

17.
为了减少资源受限的移动边缘计算场景下任务卸载和资源分配过程中的能量消耗,提出缓存辅助的动态卸载决策和计算、通信、缓存多维资源分配的联合优化策略。该策略根据任务流行度制定缓存服务,通过控制用户设备的发射功率优化通信资源分配,并结合计算卸载合理利用服务器的计算资源。提出最小化时延和能耗的均衡优化目标,设计基于深度强化学习的优化求解算法。最后,通过仿真实验验证所提策略的有效性,结果表明该策略在计算资源和缓存容量约束条件下能展现较优性能。  相似文献   

18.
为了解决数据中心外存储系统能耗和负载不对等引发的能源浪费问题,设计并实现了一种能耗和负载强度动态平衡的节能存储系统.该系统对存储虚拟化架构进行优化,通过在多个物理卷中为逻辑卷创建工作集副本,并使用内部算法将外部I/O请求映射到启用的逻辑卷副本,从而最小化工作物理卷数目,达到减少能耗的目的.经模拟验证,该系统能够以10%的冗余存储空间为代价,节约外存储系统30%~40%的能耗.  相似文献   

19.
研究了深亚微米和3D条件下的cache访问延迟的设计和模拟技术.对不同容量、不同关联度、不同技术的cache进行了模拟.实验结果显示,深亚微米条件下,互联网络成为影响cache访问延迟的重要因素,40 nm工艺下它可占cache总访问延迟的61.1%;tag比较器的延迟对cache访问延迟的影响可达9.5%.但后者并未得到已有模型的重视.鉴于此,对已有的cache访问延迟模型进行了改进.基于3D条件下多核处理器最后一级大容量cache(L3C)的容量不断增长的趋势,eDRAM在功耗和面积上的优势使其更具吸引力.模拟结果显示,在容量为1 MB, 4 MB及大于16 MB的L3C设计下,相同容量的eDRAM cache延迟比SRAM cache小,差值为8.1%(1 MB)至53.5%(512 MB).实验结果显示,未来3D多核处理器设计中eDRAM是设计L3C的更佳选择.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号