首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 343 毫秒
1.
基于显卡的通用计算(GPGPU)是近年来并行计算和快速绘制的热点.格子Boltzmann方法(LBM)作为流体动力学的新方法,其并行性好,常常用于基于物理的流体模拟,且具有适用于复杂边界障碍的特性,但计算较为复杂.利用GPGPU技术来加速LBM的流体计算模型,构建了基于图形处理器(GPU)的流体计算框架,实现了格子Boltzmann计算的D2Q9和D3Q15模型,并用于实时的障碍绕流模拟.  相似文献   

2.
静止方柱和圆柱绕流的二维数值分析   总被引:1,自引:0,他引:1  
运用流体计算软件CFX模拟了静止方柱和圆柱在不同雷诺数条件下(层流区、亚临界区、超临界区)的绕流问题.采用层流和SST湍流模型,基于二维纳维斯-斯托克斯方程(N-S方程),计算得到了相应的绕流参数:斯托罗哈数St和阻力系数Cd.将绕流参数与现有文献的绕流结果进行比较,验证了该数值模拟方法的正确性.分析了雷诺数Re对绕流参数的影响,获得了方柱和圆柱的St、Cd随Re的变化规律.通过对比方柱和圆柱的绕流参数,发现较大雷诺数时方柱的斯托罗哈数远低于圆柱的斯托罗哈数,但同时其阻力系数却高于圆柱的阻力系数,而在圆柱绕流中明显存在的阻力危机现象在方柱绕流中并不明显.  相似文献   

3.
针对工程中遇到的周期柱体绕流问题,采用格子Boltzmann方法(LBM)对低Reynolds数下单排周期排列方柱的定常绕流进行数值模拟,详细分析了柱体后面的尾迹涡型随着Reynolds数的变化情况,并通过对不同Reynolds数下尾迹涡型结构的分析,得到了二射流、三射流和四射流发生合并现象的临界Reynolds数,其中二射流出现合并的临界Reynolds数与文献的数值模拟结果一致,三射流和四射流出现合并的临界Reynolds数则偏大,但更接近实验结果。  相似文献   

4.
针对工程中遇到的周期柱体绕流问题,采用格子Boltzmann方法(LBM)对低Reynolds数下单排周期排列方柱的定常绕流进行数值模拟,详细分析了柱体后面的尾迹涡型随着Reynolds数的变化情况,并通过对不同Reynolds数下尾迹涡型结构的分析,得到了二射流、三射流和四射流发生合并现象的临界Reynolds数,其中二射流出现合并的临界Reynolds数与文献的数值模拟结果一致,三射流和四射流出现合并的临界Reynolds数则偏大,但更接近实验结果。  相似文献   

5.
为了研究低雷诺数下钝体绕流噪声,提出一种混合声学预报方法.采用声扰动方程(APEs)结合浸入边界算法(IBM)对矩形柱绕流噪声进行模拟研究.首先通过方柱绕流模型对混合方法和边界条件进行验证,然后讨论不同迎角下方柱的流噪声特性及0°迎角下矩形柱长宽比对声场的影响规律.结果表明:方柱绕流仿真结果与文献计算值符合较好,说明本文方法有效;随着迎角增加,声压级和声传播角相应变化,30°迎角下声压级较大;矩形柱的辐射噪声低于方柱辐射噪声,并随着长宽比增大逐渐减小,主要是因为尾流区形成卡门涡街的位置向下游移动,降低了尾涡强度和升力变化;矩形柱尾涡脱落和升力变化是主要的噪声源.  相似文献   

6.
运用离散涡方法对流体的方柱绕流进行了数值模拟,对涡团与颗粒相互作用条件下的流固两相绕流进行了计算,并探讨了不同初始位置处颗粒运动对尾流的形成所起的作用.研究表明,尾流中聚积的颗粒主要来源于方柱两侧,来流中夹杂的颗粒多与方柱两侧涡团作用并在方柱两侧聚积.模拟方法将对航天领域中非线性剥蚀问题的解决具有促进作用.  相似文献   

7.
采用大涡模拟的方法对雷诺数为7.5×105并排双方柱绕流流场进行了数值模拟,并对所采用的模拟方法进行了实验验证.利用有限体积法和SIMPLE算法计算程式,对双方柱三维物理模型求解不可压缩的N-S方程.计算得到了方柱绕流的速度场和涡量场以及不同时刻的速度分量分布情况.对方柱后速度场、涡旋形成、脱落以及波动性等问题进行了分析,结果符合物理学规律.  相似文献   

8.
用格子Boltzmann方法计算来流为水平剪切流的方柱绕流问题, 得到了在不同速度梯度条件下方柱绕流的流线和等涡线图. 发现在圆柱尾部形成两排涡, 当来流速度梯度较大时, 两排涡有很大的不同. 计算结果表明, 用格子Boltzmann方法计算剪切流的方柱绕流问题是可行的, 计算结果与理论分析相符.  相似文献   

9.
针对近年来利用CUDA技术在个人计算机显卡的GPU上实现LBM并行加速计算的研究越来越多,但对在GPU中使用不同GPU存储器进行计算的具体实现算法以及其对计算性能的影响分析研究甚少,文章实现了在GPU中使用不同存储器进行IBM并行计算,给出了具体的实现算法,并以平面Poiseuille流为算例,在普通个人计算机上,分别使用NVIDIA GeForce GTS 450 GPU和Intel Core i5-760 4核CPU进行计算.结果表明,两者计算结果吻合得很好,最高获得了约107倍的加速比,验证了在GPU上进行LBM并行计算的可行性以及加速性能,为在低成本的个人计算机上高效率地解决计算流体力学中的复杂计算问题提供了一种非常有效的途径.  相似文献   

10.
基于黏性流体理论,分别采用格子Boltzmann方法(LBM)和有限体积法(FVM)建立了黏性流场中方柱绕流模型。探究LBM在非光滑曲面钝体绕流方面的应用;并结合FVM进行对比分析。在FVM模型中,采用局部加密的方法对钝体边界进行处理,而在LBM模型中,除了传统的Half-way边界处理方法,还结合了拐角边界处理方法。为获得较好的可对比数据,根据已发表文献中的理论及UDF编译码技术,分别对两模型的进出口边界条件进行了讨论和设置。对比分析了两模型下的速度云图以及获得的升、阻力系数,Strouhal数。结果发现方柱上游压力不受涡脱落影响,雷诺数对其影响也较小;两种方法下的速度、无量纲参数吻合较好;但两者最适进出口边界不同,且相同条件下,LBM比FVM数值模拟能更快达到稳定状态。  相似文献   

11.
由于图形处理器(GPU)最近几年迅速发展,基于GPU的计算作为一个新的研究方向已经引起越来越多人的关注.在综述国内外最新文献的基础上,从介绍GPU的高性能开始,分析GPU本身的特性,介绍GPU的计算模型并分析其流水线结构,阐述如何对GPU进行编程,并初步实现基于GPU的格子Boltzmann方法(LBM)计算.  相似文献   

12.
基于GPU并行算法的水动力数学模型建立及其效率分析   总被引:1,自引:0,他引:1  
应用非结构化网格建立水动力模型目前已经得到了广泛的应用.针对在网格数过多,且无集群机情况下难以快速获得计算结果这一问题,基于GPU的高性能计算技术,在CUDA开发平台下设计并行算法,建立非结构化网格的二维水动力模型.与利用GTX460显卡和集群机的计算效率对比表明,在保持计算精度的前提下,速度提升了一个量级,且随着网格数的持续递增,可以保持较高的加速比增幅,比较适合应用于大范围海域的水动力模型的数值计算.  相似文献   

13.
随着图像数据量的增加,传统单核处理器或多处理器结构的计算方式已无法满足图像灰度化实时处理需求.该文利用图像处理器(GPU)在异构并行计算的优势,提出了基于开放式计算语言(OpenCL)的图像灰度化并行算法.通过分析加权平均图像灰度化数据处理的并行性,对任务进行了层次化分解,设计了2级并行的并行算法并映射到“CPU+GPU”异构计算平台上.实验结果显示:图像灰度化并行算法在OpenCL架构下NVIDIA GPU计算平台上相比串行算法、多核CPU并行算法和CUDA并行算法的性能分别获得了27.04倍、4.96倍和1.21倍的加速比.该文提出的并行优化方法的有效性和性能可移植性得到了验证.  相似文献   

14.
研究蒙特卡罗控制变量方法在CPU(central processing unit)集群和GPU(graphic processing unit)计算环境中的实现问题.以离散取样的随机波动率下的算术平均亚式期权为例,选取合适的控制变量,分别研究了在CPU集群和GPU计算中算法与硬件并行加速两者的运算效率,并讨论了模型参数的变化对计算结果的影响.数值试验表明采用算法与硬件加速相结合的方法可以极大提高计算效率、缩短运算时间.  相似文献   

15.
面向CPU+GPU异构计算的SIFT   总被引:1,自引:0,他引:1  
依据图形处理器(GPU)计算特点和任务划分的特点,提出主从模型的CPU+GPU异构计算的处理模式.通过分析和定义问题中的并行化数据结构,描述计算任务到统一计算设备架构(CUDA)的映射机制,把问题或算法划分成多个子任务,并对划分的子任务给出合理的调度算法.结果表明,在GeForce GTX 285上实现的尺度不变特征变换(SIFT)并行算法相比CPU上的串行算法速度提升了近30倍.  相似文献   

16.
开发了基于图形处理器(GPU)的Cholesky分解并行算法,应用于模态计算程序中,对计算进行加速.算例测试表明该算法相对串行算法计算性能大幅提升,且加速比随矩阵阶数增加而增加,与串行程序相比加速比可达到19.6,此时GPU浮点运算能力达到298Gflops.GPU程序固有频率计算结果与Abaqus计算结果的误差在2%以内,具有足够的计算精度.  相似文献   

17.
Many-core processors, such as graphic processing units (GPUs), are promising platforms for intrinsic parallel algorithms such as the lattice Boltzmann method (LBM). Although tremendous speedup has been obtained on a single GPU compared with mainstream CPUs, the performance of the LBM for multiple GPUs has not been studied extensively and systematically. In this article, we carry out LBM simulation on a GPU cluster with many nodes, each having multiple Fermi GPUs. Asynchronous execution with CUDA stream functions, OpenMP and non-blocking MPI communication are incorporated to improve efficiency. The algorithm is tested for two-dimensional Couette flow and the results are in good agreement with the analytical solution. For both the oneand two-dimensional decomposition of space, the algorithm performs well as most of the communication time is hidden. Direct numerical simulation of a two-dimensional gas-solid suspension containing more than one million solid particles and one billion gas lattice cells demonstrates the potential of this algorithm in large-scale engineering applications. The algorithm can be directly extended to the three-dimensional decomposition of space and other modeling methods including explicit grid-based methods.  相似文献   

18.
利用基于图形处理器(GPU)的计算统一设备架构(CUDA) Fortran编程平台,对直接模拟蒙特卡洛(DSMC)方法进行并行优化,并以高超声速气动热计算为例,考察了串行与并行计算速度以及不同仿真分子数对并行效率的影响.结果表明,在保证计算精度不变的情况下,程序取得了4~10倍的加速比,并且加速性能高低与计算规模大小成正比.  相似文献   

19.
基于CUDA平台的时域有限差分算法研究   总被引:1,自引:1,他引:0  
文章针对传统时域有限差分(FDTD)算法的不足,以图形加速卡为核心,通过理论分析和数值模拟,研究并实现了基于CUDA平台的FDTD并行算法。CUDA是最新的可编程多线程的通用计算GPU模型,由于FDTD算法在空间上具有天然的并行性,因此非常适合在GPU上实现并行算。文章描述了在CUDA编程模型上的FDTD算法的设计以及优化过程,并通过数值仿真实验结果证明了基于GPU的并行FDTD算法可以大大减少计算时间,基于GPU加速已成为电磁场数值计算的研究热点之一。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号