首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到18条相似文献,搜索用时 123 毫秒
1.
首先介绍了Linux集群、并行计算和MPI技术的基本概念与方法,深入研究了MPI并行编程环境和集群并行计算模式。然后对MPI进行了分析,给出了Linux环境下MPI编程环境的配置方法,在此基础上构建了一个基于Linux和MPI的集群系统。  相似文献   

2.
针对MPI、OPENMP并行程序各自存在的缺陷,将MPI与OPENMP结合起来,实现了MPI/OPENMP混合并行编程;通过实验对MPI、OPENMP并行程序及MPI/OPENMP混合并行编程进行了分析.实验结果表明:MPI/OPENMP混合并行编程可以大大减少通信量,其效率和加速比均优于纯MPI并行程序,克服了MPI并行程序中因粒子分布不均匀使负载不均衡而导致的程序性能下降的问题,使得可以利用集群中的更多结点来进行计算,缓解了MPI并行程序的通信延迟问题;同时,MPI/OPENMP混合并行编程克服了OPENMP并行程序依赖于单台计算机处理能力和存储空间的问题,大幅度提高了模拟规模.  相似文献   

3.
通过对MPI原理和特点的研究,给出了并行MPI程序的基本设计思路和执行过程,并实现了向量相加的并行计算.  相似文献   

4.
本文阐述了在Linux和Windows系统下,搭建基于MPI的并行PC集群的过程,实现了各个节点的互通和基于MPI的并行计算.  相似文献   

5.
基于MPI笛卡尔拓扑结构的切片性能分析   总被引:1,自引:1,他引:0  
通过对MPI并行进程的拓扑结构及其通讯特点进行分析,提出了网络拓扑结构切片的思想,并实现了在MPI中对一般网络拓扑结构进行任意切片的MPI库函数。通过对MPI笛卡尔拓扑结构进行切片实验性能分析,得出构造切片通讯子进行通讯的方法要优于使用原始通讯子的方法。  相似文献   

6.
针对二元合金三维相场模型模拟研究中存在的计算区域小、计算效率低,难以满足二元合金大规模模拟的需求,提出基于MPI+OpenMP混合编程模式的并行方法.在相同计算规模下对MPI和OpenMP并行技术的优缺点进行分析.在计算机集群环境下对MPI+OpenMP混合编程模式和纯MPI并行方法的并行效率进行对比和分析.结果证明:基于MPI+OpenMP混合编程模式可以有效地扩大二元合金三维相场模型的计算规模;在多核集群环境下,相对于纯MPI并行方法,MPI+OpenMP混合编程可以更加有效地利用多核集群的多层次结构,取得更高的加速比和计算效率.  相似文献   

7.
利用MPI提供的库函数,提出了基于MPI的分形图像压缩并行化算法,将图像的定义域块和值域块的搜索匹配过程分配给多台处理器同时执行.实验结果表明,利用MPI来进行分形图像压缩,可以缩短压缩时间,在不改变压缩比的情况下,得到较好的加速比.  相似文献   

8.
针对MPI互操作问题进行研究,重点探讨了跨域并行计算所涉及的计算资源描述、进程信息交互等技术问题.采用动态虚连接技术优化了点点通信的性能,并采用拓扑感知的聚合优化算法优化了全局通信,实现了多域MPI运行环境Lyra-MPI,支持MPI2.0的动态特性.测试结果表明Lyra-MPI系统的综合能力强,可以很好地支持大规模MPI应用的跨域运行.  相似文献   

9.
通过对MPI概述及MPI特点的介绍,说明MPI作为消息传递编程模型,正成为并行程序设计事实上的工业标准。MPI发送不连续数据,主要通过数据打包与解包操作,并且通过列举定积分求解的例子来说明。  相似文献   

10.
设计实现了一个面向CellBE异构多核处理器的多节点MPI编程运行环境Cell-MPI,实现了包括基本的点到点通信和广播等常用通信操作集合的MPI通信库原型,目的是在有效利用SPE计算能力提高程序运行效率的同时,保持与传统MPI一致的编程模式,减轻应用移植给使用者带来的负担.使用通信延迟、带宽测试程序及实际应用程序对其进行了测试,测试结果表明设计实现的MPI在保持高效通信性能的同时,也有效地利用了SPE,发挥了CellBE处理器强大的计算性能.  相似文献   

11.
MPICH是一种重要的MPI实现,其提供的通信函数对于并行程序的性能有很大影响。论文讨论了MPI消息传递机制,详细分析了标准通信模式下MPICH消息传递的分层结构、传输接口以及消息数据发送和接收过程中的数据拷贝和队列管理的实现方法,并给出了分析结果。  相似文献   

12.
相控阵雷达仿真系统并行计算研究   总被引:1,自引:0,他引:1  
针对共享存储多处理器的集群环境,研究了减少相控阵雷达仿真系统运行时间的并行计算方法.根据相控阵雷达多个波束处理过程的相对独立性和信号处理仿真中多个距离单元采样点的计算特点,提出了一种粗粒度消息传递接口(MPI)分布式内存和细粒度OpenMP共享内存混合编程的两级并行方法.实验结果表明,并行计算使系统的仿真速度有较大提高.  相似文献   

13.
PDD算法在对称多处理器高性能计算机上的并行实现   总被引:1,自引:0,他引:1  
使用基于MPI并行编程方法,对PDD算法进行了并行处理及fortran编程,给出了并行代码在上海大学计算机学院自强2000集群式高性能计算机上的运行结果,以及与串行程序相比较的并行加速比。  相似文献   

14.
热表面张力驱动的对流是微重力下浮区法晶体生长中熔体最重要的物质与热输运方式。采用单松弛双分布函数格子Boltzmann模型,自主开发了相应的格子Boltzmann方法的串行和MPI并行程序包,并应用该程序包对开口方腔内流体的二维热表面张力对流进行了数值模拟研究。其中串行程序合并碰撞迁移过程和引入临时数组以连续读入分布函数,相比分开碰撞迁移过程,计算性能提高了二倍;在此基础上,采用单向计算区域分区和非阻塞通信模式,实现了MPI版格子Boltzmann并行程序包开发。对比基于传统有限体积法CFD程序计算结果表明,串行和MPI并行版格子Boltzmann程序包计算结果精确可靠;并行程序具有较好的性能。  相似文献   

15.
基于区域分解和MPI的线性带状方程组归并迭代解法器   总被引:1,自引:0,他引:1  
线性带状方程组并行解法器往往基于两层迭代的区域分解方法,采用M P I(m essage pass ing in terface)实现,因此导致的总迭代次数太多或者进程通信开销太大都会使解法器效率低下。该文通过研究减少迭代次数和降低进程通信开销的方法,设计了一种适合区域分解和M P I系统的高效的归并迭代并行解法器。这种解法器通过引入全局加速收敛算法,把两层迭代归并为一层迭代,有效减少了迭代求解的总次数,并且采用分块并行技术降低M P I系统上加速收敛算法的进程通信开销。实验证明归并迭代并行解法器能够保证和串行解法器大致相当的总迭代次数,分块并行加速收敛技术能够降低接近1/2的全局进程通信时间。  相似文献   

16.
为了保证大规模集群系统的可靠性和可用性,设计并实现了一个面向集群消息传递并行程序的容错系统。该系统采用检查点设置与卷回恢复技术,提出了基于内存排除的退出重进入并行环境策略,实现了对用户程序完全透明的容错功能、进程迁移以及系统自动重构。实验结果表明:检查点设置和系统恢复开销小于10%,符合大规模并行程序容错功能的要求。该系统提高了集群系统的可靠性和可用性,其设计结构和实现方法可以方便地移植到其他消息传递系统。  相似文献   

17.
建立了描述纳米流体流动与传热过程的格子-Boltzmann模型,针对格子-Boltzmann方法(LBM)高度并行性的特点,用消息传递机制实现了平板间纳米流体流动与传热过程的LBM并行计算,分析了处理器数目与区域分解模式对计算效率的影响。结果表明,纳米粒子的微运动强化了流体与壁面以及流体内部的换热过程,LBM并行计算方法应用于纳米流体流动传热计算能够提高计算效率。  相似文献   

18.
针对四冲程内燃机活塞在气缸套中的二阶运动轨迹的求解问题,提出基于消息传递接口(MPI)并行化求解非线性二阶偏微分方程,计算时用消息传递的并行编程模型对不存在数据相关的部分实施并行化。对各个模块的划分以及颗粒度的大小进行了论述。对求解问题中不同的求解精度要求和通信方式,分别在SUN工作站和上海超级计算中心神威机上进行计算,对各自的总计算时间和并行时间做了对比分析,并给出了加速比和适宜的进程数。研究表明,改进后的并行算法可以在较短的时间内得到高精度的结果,且具有很好的加速比。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号