排序方式: 共有12条查询结果,搜索用时 0 毫秒
1.
LNG冷箱中降温过程的动态模拟并行计算 总被引:1,自引:0,他引:1
由于单核计算无法承担LNG冷箱中降温过程动态模拟的高负荷,采用共享内存模式下的对称多核并行计算方法实现带预冷的氮膨胀液化流程中冷箱降温过程的动态模拟。动态模型中,板翅式换热器采用一维模型,压缩机、膨胀机和节流阀按稳态元件处理;并行方法中,根据并行机特征和液化流程特点进行计算单元的划分及边界耦合,利用路障对每个积分步进行同步控制,通过显式的函数调用进行单元间通信。将模拟结果与试验数据进行对比,验证动态模型和并行方法的合理性。模拟结果表明:工质的降温速率主要取决于膨胀机多变效率;该并行方法使模拟进程加速23倍,计算结点效率是单核计算的3.83倍。 相似文献
2.
通过分析低层图像处理算法特点,指出标准SIMD结构不能完成某些低层图像处理算法的数据综合任务,提出的改进型SIMD结构增加了多指令控制、共享存储器单元,能执行更多种类图像处理算法,讨论了图像在SIMD结构计算机上的一维、二维分块方法,结果表明一维图像分块在互连网络硬件量、算法执行速度两方面更具优越性. 相似文献
3.
针对多数据流组成的时间序列中发现有用的结构模式的MSDD算法不能很好地对节点剪枝,以及直观地表示模式的时间关系的问题,经过研究,提出了发现多数据流时间序列结构模式的算法:时间窗口移动筛选算法(TWMA).采用事件序列化的策略来发现多流时间序列中的依赖模式,与MSDD相比,在表示上更直观,发现模式的过程更灵活. 相似文献
4.
李小红 《合肥学院学报(自然科学版)》2005,15(3):21-24
H.264标准是ITU-T视频编码专家组(VCEG)和ISO/IECMPEG委员会正在制定的用于视频通信的新一代视频编码标准。运动估计是H.264最关键技术,占计算量的主要部分,因而成为视频压缩处理的瓶颈,因此必须研究运动估计的并行处理算法。通过介绍SSE技术的特点、数据结构和内联函数,在此基础上用SSE技术实现了运动估计并行算法。 相似文献
5.
论述了PC集群并行计算平台的建立,以及在此平台下的单一系统映像SSI和消息传递接口MPI。给出了一种基于M IMD体系结构和粗任务粒度的PC集群并行计算平台,并通过积分求π并行算法实例验证了该系统的可行性和效能。 相似文献
6.
针对传统的基于线性回归预测建模方法只能适应简单的预测建模和只能预测未来窗口平均值的不足,提出了基于基因表达式编程(gene expression programming,GEP)的多数据流预测方法。在多数据流环境中使用滑动窗口对多数据流的划分方法,给出了多数据流环境中的数据流名称的定义,揭示了这些数据流之间存在的映射关系;进而提出了对多数据流进行预处理的方法,并建立了基于GEP的多数据流的自适应预测模型。使用真实数据进行实验,验证了算法的有效性。 相似文献
7.
针对数字信号处理的应用特点,提出了一种识别SIMD指令的一般性方法;针对分簇结构SIMD指令的特点,给出了新的指令分簇算法和寄存器分配算法;最后在BWDSP100芯片的编译器上实现这些优化方法.实验结果表明,上述优化方法能充分发挥分簇结构SIMD指令的优势,提高编译器的效率. 相似文献
8.
数字信号处理器(DSP)是在高密集计算领域综合计算性能最高的一种处理器.中国电子科技集团公司第38研究所在"核高基"重大专项支持下经过6年时间潜心研究,成功完成"魂芯一号"的研制并在实际产品上得到很好的应用,达到原先确定的目标.本文回顾了数字信号处理器(DSP)的发展历程和典型特点,介绍了我国自主研制的通用DSP器件"魂芯一号"设计的基本思路、研制过程和应用推广情况. 相似文献
9.
分布式实时多数据流的并发协作处理 总被引:1,自引:0,他引:1
基于C/S模型分析了分布式实时计算环境中多数据流并发处理的事务问题.采用复杂事件驱动技术,设计了一个适于多数据流并发协作处理的事务机制ARTs-MDS,能够自组织地将对分布式实时数据产生作用的并发任务组成一个原子的事务单位.系统维护着一个永久性的请求/响应队列将物理的设备的实操作与实时事务相分离,通过保证并发协作任务的事务特性获得以分布式局部采集数据为基础产生的微观层操作行为协作产生的整体效果的原子性.测试结果分析表明:该系统能提高对连续的外部采集数据进行协作处理的实时响应,减少了数据丢失. 相似文献
10.
耦合Nvidia/AMD两类GPU的格子玻尔兹曼模拟 总被引:8,自引:0,他引:8
利用图形处理单元(graphic processing unit, GPU)进行通用计算近年来得到关注, Nvidia和AMD公司已推出了各自的开发环境CUDA和ASC. 很多计算在GPU上的速度远高于目前的CPU. 格子玻尔兹曼方法(lattice Boltzmann method, LBM)作为一种网格上的粒子方法, 对流动模拟具有良好的内在并行性, 非常适合利用GPU进行大规模并行计算. 本文提出了一种耦合Nvidia和AMD的两类GPU完成LBM凹槽流模拟的算法, 对于两类GPU, 在LBM的D2Q9模型下分别设计了相应的算法和程序, 之后利用消息传递接口(message passing interface, MPI)协议通过多程序多数据流(multi-program multi-data, MPMD)模式使其能够联合计算, 以充分发挥混合GPU集群系统的性能. 通过GPU和CPU程序结果的比较, 证实了GPU计算的正确性和所能带来的显著的加速比, 为建设通用大规模GPU并行计算平台提供了重要参考. 相似文献