首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 15 毫秒
1.
采用离散元素法(discrete element method, DEM)进行颗粒系统运动仿真时,其模拟计算量大、计算效率低下,所采用的传统中央处理器(central processing unit, CPU)并行计算模型难以实现较大规模模拟。文章提出了一种基于图形处理单元(graphics processing unit, GPU)和统一计算设备架构(compute unified device architecture, CUDA)的并行计算方法;以球磨机的介质运动仿真为例,利用DEM方法结合CUDA并行计算模型,充分利用GPU众核多线程的计算优势,同时将颗粒属性信息存入GPU的常量存储器,减少信息读取的时滞,将筒体和衬板视为圆柱面和平面,简化了筒体与颗粒的接触判断,实现每个线程处理1个颗粒的相关计算,大幅提高计算速度;对颗粒堆积、筒体内2种尺寸颗粒运动进行仿真,并与基于CPU并行计算的结果进行对比。研究结果表明:在同等价格的硬件条件下,该文的方法可以实现10倍以上的加速比;对于含有复杂几何模型的仿真,如多尺寸颗粒和带衬板筒体的仿真,加速比会减少,但仍然可以实现数倍的加速。  相似文献   

2.
基于CUDA平台的时域有限差分算法研究   总被引:1,自引:1,他引:0  
文章针对传统时域有限差分(FDTD)算法的不足,以图形加速卡为核心,通过理论分析和数值模拟,研究并实现了基于CUDA平台的FDTD并行算法。CUDA是最新的可编程多线程的通用计算GPU模型,由于FDTD算法在空间上具有天然的并行性,因此非常适合在GPU上实现并行算。文章描述了在CUDA编程模型上的FDTD算法的设计以及优化过程,并通过数值仿真实验结果证明了基于GPU的并行FDTD算法可以大大减少计算时间,基于GPU加速已成为电磁场数值计算的研究热点之一。  相似文献   

3.
基于CUDA的H.264/AVC视频编码的设计与实现   总被引:1,自引:0,他引:1  
为了提高编码速率,将视频编码中计算量较大的运动估计和离散余弦变换(DCT)系数计算移植到图像处理器(GPU)上处理.根据H.264/AVC的编码要求和处理器的并行结构,提出了一种并行处理方法,并利用统一计算设备架构(CUDA)的计算平台,实现了H.264/AVC中的运动估计和DCT变换系数的计算.实验表明:在GPU上采用并行计算方法可较大程度地提高视频编码速度.  相似文献   

4.
并行计算是提高音频大地电磁(audio-frequency magnetotelluric method,AMT)数据反演效率的有效途径。本文在统一计算设备架构(compute unified device architecture,CUDA) 下开展带地形的AMT数据二维反演并行算法研究,旨在利用GPU强大的计算能力及并行计算技术实现高精度、快速度的AMT数据二维反演。首先利用有限元和自适应正则化反演算法实现AMT数据二维反演的串行化计算;然后在PGI Visual Fortran+ CUDA5.5环境下编写基于CPU+GPU的CUDA并行代码,将正演中的频率循环、反演中的模型灵敏度矩阵计算和反演方程正则化求解部分进行并行化处理;通过不同复杂程度的理论模型正反演模拟验证了该并行算法的有效性和准确性。不同模型和不同模式下的数值模拟结果对比表明,基于CPU+GPU的CUDA并行算法相较于传统的CPU串行算法,在灵敏度矩阵计算和反演方程正则化方面耗时更少,加速比最高可达10倍以上。最后将该并行算法应用于某矿区实测AMT数据的二维反演中,取得了较好的应用效果。  相似文献   

5.
基于GPU高性能并行计算,在CUDA编程环境中实现边界面法正则积分的并行加速.在NVIDIA GTX680GPU和英特尔(R)酷睿(TM)i7-3770KCPU的计算平台上与传统的正则单元积分对比.数值算例表明,在保证相同精度的前提下,加速比可达到8.3.  相似文献   

6.
对Lattice Boltzmann方法(LBM)在CUDA下的建模和算法进行了研究,使得该方法在GPU下的计算速度得到提升,大大缩短了计算过程的时间消耗。利用非平衡外推边界条件处理,以LBM方法模拟了D2Q9模型的方腔顶盖驱动流动,采用全局内存和纹理内存存储数据,将模型中9个分布函数存储为二维网格,每个网格分配一个线程,每个线程块包括256个线程,多条线程并行计算。在普通个人计算机上,采用NVIDIA GeForce 9600 GT显卡和CUDA,实现了LBM模拟方腔流动,将计算速度提高到CPU的50倍。  相似文献   

7.
介绍了在桌面计算机上利用格子Boltzmann方法(LBM)与图形处理器(GPU)计算的发展背景,分析了LBM的标准形式及其天生并行特性的成因,介绍了所采用的CUDA编程模型及Kepler计算架构.为了验证桌面计算机上利用LBM的GPU计算的应用能力,对二维方柱绕流问题进行了数值模拟,并将模拟结果与有限体积法的计算结果进行对比.结果表明:对于方柱绕流问题,GPU计算的模拟计算效率约为CPU计算的3.4倍,桌面计算机上利用LBM的GPU计算具有一定的通用科学计算能力.  相似文献   

8.
基于CUDA的高速并行高斯滤波算法   总被引:2,自引:1,他引:1  
为加快表面三维形貌分析中高斯滤波算法的执行速度,提出了一种基于计算统一设备构架(CUDA)的高斯滤波算法来实现高速并行处理.分析高斯滤波算法原理和CUDA并行计算体系,将CUDA并行计算技术引入到表面分析领域.针对高斯滤波数据间依赖性弱和CUDA采用单指令多线程(SIMT)执行模型的特点,总结出适合于CUDA的并行高斯滤波算法流程.实验证明:该方法与CPU串行处理方法相比,其加速比达到40倍以上,可以有效提高数据处理能力.  相似文献   

9.
针对近年来利用CUDA技术在个人计算机显卡的GPU上实现LBM并行加速计算的研究越来越多,但对在GPU中使用不同GPU存储器进行计算的具体实现算法以及其对计算性能的影响分析研究甚少,文章实现了在GPU中使用不同存储器进行IBM并行计算,给出了具体的实现算法,并以平面Poiseuille流为算例,在普通个人计算机上,分别使用NVIDIA GeForce GTS 450 GPU和Intel Core i5-760 4核CPU进行计算.结果表明,两者计算结果吻合得很好,最高获得了约107倍的加速比,验证了在GPU上进行LBM并行计算的可行性以及加速性能,为在低成本的个人计算机上高效率地解决计算流体力学中的复杂计算问题提供了一种非常有效的途径.  相似文献   

10.
为了应对海量的字符(手写)识别,提出了一种将统一计算设备架构(Compute Unified Device Architecture,CUDA)和深度置信网络相结合的方法进行手写字符识别。该方法结合受限玻尔兹曼机和反向传播神经网络形成深度置信网络对字符图片数据进行识别,并且使用CUDA在图形处理器(GPU)上进行并行计算来完成识别过程。实验结果表明,使用该方法后,在不降低识别精度的情况下手写字符识别的速度大幅提升。  相似文献   

11.
针对传统光线投射算法绘制速度慢和GPU (Graphics Processing Unit,图形处理器)不能有效进行并行计算的缺点,文章提出一种基于包围跳跃的CUDA(Compute Unified Device Architecture,计算统一设备架构)光线投射算法,首先介绍了CUDA的编程模型和线程结构,然后用包围盒技术隔离体数据周围无效的空体素,减少投射光线的数目;利用光线跳跃技术,在包围盒内进行快速光线的合成,跳过透明的体素,减少大量体素的重采样;最后使用CUDA强大的并行处理计算的功能实现光线投射算法。实验结果表明,本文的方法在保证图像质量的同时,在绘制速度上比基于GPU加速的光线投射算法有14倍的提高,能够接近实时绘制,有很好的应用价值。  相似文献   

12.
针对传统光线投射算法绘制速度慢和图形处理器(graphics processing unit,GPU)不能有效进行并行计算的缺点,文章提出一种基于包围跳跃的计算统一设备架构(compute unified device architecture,CUDA)光线投射算法。首先介绍了CUDA的编程模型和线程结构,然后用包围盒技术隔离体数据周围无效的空体素,减少投射光线的数目;利用光线跳跃技术,在包围盒内进行快速光线的合成,跳过透明的体素,减少大量体素的重采样;最后使用CUDA强大的并行处理计算的功能实现光线投射算法。实验结果表明,在保证图像质量的同时,绘制速度上比基于GPU加速的光线投射算法有14倍的提高,能够接近实时绘制,有很好的应用价值。  相似文献   

13.
基于多图形处理单元加速的各向异性弹性波正演模拟   总被引:1,自引:0,他引:1  
比较分析了在不同网格大小介质模型情况下,分别采用串行计算、CPU 16个线程并行计算和4块图形处理单元(GPU)并行计算进行各向异性弹性波动方程正演模拟的执行时间差异。发现在网格点为256~3的大模型上,用4块GPU的并行模拟计算相对16线程并行计算与串行计算的加速分别为30倍与156倍。表明多GPU并行算法可以显著缩短数值模拟时间,而且模型网格越大,加速效果越显著。因此,在单机环境下进行大尺度模型的各向异性弹性波正演模拟,采用多GPU并行计算方式是一个合适的加速选择。  相似文献   

14.
利用CUDA并行计算框架和GPU高效的并行性和灵活的可编程性等特点,本文提出了数控仿真加工面并行显示算法,算法主要包括:并行式区间树索引遍历体素,对活跃体素的角点和边信息标记提取;体素标记与MC分类之间的映射匹配;将匹配结果对应的MC模型直接显示绘制.该基于GUDA框架的GPU并行算法,从理论上分析提高显示速度,降低计算时间,增大仿真的实时性.  相似文献   

15.
利用基于图形处理器(GPU)的计算统一设备架构(CUDA) Fortran编程平台,对直接模拟蒙特卡洛(DSMC)方法进行并行优化,并以高超声速气动热计算为例,考察了串行与并行计算速度以及不同仿真分子数对并行效率的影响.结果表明,在保证计算精度不变的情况下,程序取得了4~10倍的加速比,并且加速性能高低与计算规模大小成正比.  相似文献   

16.
针对窦房结电生理计算机仿真运算量巨大、耗时长的问题,提出了基于高性能图形处理单元(GPU)实现并行计算及优化的方法。首先考虑窦房结细胞中央和边缘的差异,构建了一维非匀质窦房结组织模型;利用算子分裂方法使模型的解算任务具备并行性。根据具体解算过程提出了三种并行化策略,并对其中耗时最短的策略从线程块设置、数据交换频率以及存储模式等方面进行了进一步优化。结果表明:对于500个细胞的仿真,CUDA程序较串行程序的执行时间下降了60%,进一步优化后,CUDA程序的执行时间可下降84%;窦房结组织越大,GPU的加速效果越明显。结果验证了GPU加速解算方法可显著提高窦房结模型的解算速度,降低实际执行时间。  相似文献   

17.
对基于统一计算设备架构(CUDA)的图形处理器(GPU)在图形处理方面的算法进行了研究和实现.针对目前图像处理算法日益复杂,性能要求越来越高,而传统的基于CPU的图像处理算法无法满足需求的情况,充分利用GPU突出的并行处理能力,采用CUDA技术,利用C++语言实现了图像处理算法.研究并设计了高斯模糊处理算法、彩色负片处理算法、透明合并处理算法的GPU并行运算流程,与CPU的性能对比表明基于GPU图像处理算法的效率更高.  相似文献   

18.
随着图像数据量的增加,传统单核处理器或多处理器结构的计算方式已无法满足图像灰度化实时处理需求.该文利用图像处理器(GPU)在异构并行计算的优势,提出了基于开放式计算语言(OpenCL)的图像灰度化并行算法.通过分析加权平均图像灰度化数据处理的并行性,对任务进行了层次化分解,设计了2级并行的并行算法并映射到“CPU+GPU”异构计算平台上.实验结果显示:图像灰度化并行算法在OpenCL架构下NVIDIA GPU计算平台上相比串行算法、多核CPU并行算法和CUDA并行算法的性能分别获得了27.04倍、4.96倍和1.21倍的加速比.该文提出的并行优化方法的有效性和性能可移植性得到了验证.  相似文献   

19.
提出一种基于统一计算设备架构(CUDA)加速的尺度不变特征变换(SIFT)快速计算方法,用以解决SIFT特征提取计算过程耗时过长的问题.该方法充分利用图像处理单元(GPU)在并行计算、浮点计算、内存管理等方面的优势,合理分配主机端和设备端的资源及其在SIFT特征计算中所承担的角色.实验表明,与CPU架构下的SIFT特征提取算法相比,本文算法可以大幅度加快SIFT特征提取的计算速度,其加速比随着SIFT特征点数目的增加而增加,在本文实验中最大加速比可达1954.  相似文献   

20.
比较分析了在不同网格大小介质模型情况下,分别采用串行计算、CPU 16个线程并行计算和4块GPU并行计算进行各向异性弹性波动方程正演模拟的执行时间差异。发现在网格点为2563的大模型上,用4块GPU的并行模拟计算相对16线程并行计算与串行计算的加速分别为30倍与156倍。表明多GPU并行算法可以显著缩短数值模拟时间,而且模型网格越大,加速效果越显著。因此,在单机环境下进行大尺度模型的各向异性弹性波正演模拟,采用多GPU并行计算方式是一个合适的加速选择。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号