首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 671 毫秒
1.
针对目前迭代软阈值稀疏角CT重建算法收敛速度较慢的问题,提出了一种基于全变分约束的快速迭代软阈值稀疏角CT重建算法.该算法首先对CT稀疏投影数据采用联合代数重建算法(SART)进行重建,以获得满足数据一致性的重建图像,然后计算SART重建图像的离散梯度变换,并对其进行软阈值滤波,最后利用离散梯度变换的伪逆更新重建图像.由于在迭代过程中利用了前2次迭代重建图像作为下一次迭代的初始图像,因而加快了重建算法的收敛速度.对Shepp-Logan模体进行仿真的实验结果表明:在无噪、5×104和2×105光子泊松噪声情况下,与SART重建算法、基于Harr小波的快速迭代软阈值算法以及基于全变分约束的迭代软阈值重建算法相比,该重建算法的收敛速度有明显提高,同时能够有效减小图像的相对重建误差.  相似文献   

2.
利用正六边形在所有能铺满整个平面的正多边形中具有最多对称轴的特点(共6条,正三角形3条,正方形4条),结合对称变换群的性质对计算机断层扫描重建(CT)中的滤波反投影算法(FBP)进行了优化,降低了算法中反投影部分的计算复杂度,从而得到一个快速重建算法。由于反投影的计算在FBP算法中耗时最多,所以新算法明显加快了图像重建速度,通过仿真试验与已有快速重建算法进行比较,表明文中算法在同等条件下重建速度提高明显。  相似文献   

3.
利用CT进行三维重建需要高迭几十亿字节的数据,处理这样的海量数据对PC机或普通图形工作站的CPU来说都将是十分耗时的,重建速度仍是制约三维锥束CT应用的主要因素之一。图形处理器(Graphics Processing Unit,GPU)由于其所具有的超长流水线和高度并行化,不仅在图形处理领域得到广泛应用,而且被用来进行通用计算任务。由于计算机图形学中的投影过程和CT的数据生成本质是一致的,基于GPU进行CT重建是提高速度的有效途径,本文首先针对GPU的特点进行概述,之后着重介绍了在GPU上实现CT重建的原理和方法,同时分析了GPU能够实现加速的原因。  相似文献   

4.
在具有可编程管线的图形处理器(GPU)上重新实现了传统的光线投射算法,将耗时的三线性插值和采样过程放在GPU上进行,以提高绘制速度.首先将体数据映射为三维纹理并将其载入到显存,接着通过对顶点着色程序和像素着色程序的编写将光线进入点、离开点的计算以及图像的合成运算移入GPU中,最后根据不同的采样点颜色混合公式实现不同的绘制效果.本算法通过只绘制一个代理面,避免了使用固定管线的混合操作,从而可通过自定义的混合算法来实现各种复杂的绘制效果.结论:与传统的光线投射算法相比,文中算法可快速重建出质量较高的图像,使实时绘制工业CT断层图像成为了可能.  相似文献   

5.
为提高多尺度Retinex算法的实时性,本文提出了基于GPU的多尺度Retinex图像增强算法,通过对算法进行数据分析和并行性挖掘,将高斯滤波、卷积和对数差分等计算量非常耗时的模块放到GPU中,利用大规模并行线程处理来提高效率。在GeForce GTX 480和CUDA 5.5中进行实验,结果表明该算法能显著提高计算速度,且随着图像分辨率的增加,最大加速比达160倍。  相似文献   

6.
基于八叉树编码的CUDA光线投射算法   总被引:2,自引:0,他引:2  
目的针对传统的GPU光线投射算法绘制效果差,绘制效率低的问题,在CUDA架构上对光线投射算法进行优化和加速。方法首先采用八叉树对体数据进行编码,有效地剔除体数据中对重建图像无贡献的部分;其次,将体数据绑定到三维纹理上,根据体数据大小分配线程,每条光线与体数据求交时采用并行计算;最后,在CUDA内核中实现光线投射算法。结果仿真实验结果表明文中算法可以将传统GPU光线投射算法的绘制速度提高7~15倍,并增强算法的绘制效果。结论算法对传统的GPU光线投射算法的绘制速度和效果都有提高。  相似文献   

7.
CT的正投影计算是对CT数据采集过程的模拟,不仅可用于生成投影数据,而且是CT图像迭代重建算法的一个关键组成部分.在CT的锥束扫描方式下,正投影计算量大,计算时间长.为此,提出了一种GPU加速实现的锥束CT正投影算法.该算法通过并行计算各条X射线在探测器上投影,实现了锥束CT正投影的快速计算.由于该算法支持全浮点运算精度计算,且采用三线性插值方式,因此计算精度高.通过对Shepp-Logan模型的正投影计算实验以及与其他正投影算法的比较,验证了作者算法的优点.  相似文献   

8.
针对二叉树定价模型算法计算量大、耗时长的问题,利用CUDA架构对该模型进行了并行改造,在GPU上对该算法进行了加速测试与相应的性能分析.实验结果表明:在单个GTX295节点上,对于数据规模为16 K的期权,GPU相对于其4核Xeon E5520的加速比已达约200倍,GPU每s所能处理的期权数量达到了24 852个,符合实时商业引擎的要求.另外,通过衡量一些关键指标,考察了该算法在GPU上的扩展性及其计算精度对结果的影响.  相似文献   

9.
在超声成像系统中扫描转换是让超声图像较好地在屏幕上进行显示所必须的处理步骤.由于这一处理步骤中存在运算复杂的插值运算,特别是在横向使用的三次方插值,使其成为临床实时成像系统中提供帧速率的一大性能提升瓶颈,为此本文研究并提出了一种基于新兴的高性能并行计算平台Fermi架构GPU(Graphics processing unit)的并行处理算法,该算法基于GPU并行处理平台,主要包括初始化阶段、图像插值以及图像显示这3个处理环节.该算法不仅保持了与现有计算平台系统的计算精度,而且显著地提高了这一处理环节的计算速度.数据测试结果显示,采用Fermi架构的GPU处理在得到与基于CPU的实现完全一致的扫描转换效果的同时,取得了较大的加速效果.对于3 121×936的图像数据能够达到1 558 fps的帧率,速度提高了大约664倍.  相似文献   

10.
基于圆域上多项式逼近的图像重建算法   总被引:1,自引:1,他引:0  
以Marr算法为基础, 给出了圆域D上图像重建的一种 基于二元多项式逼近的加速算法. 加速后算法的计算量为O(Nlg N), 当N较大时, 新算法的运行时间远小于原算法的运行时间. 同时, 与传统图像重建算法〖CD2〗滤波反投影算法(FBP)相比, 基于多项式逼近加速算法重建的图像质量优于前者. 仿真实验验证了此算法的有效性.  相似文献   

11.
针对传统正则匹配性能低下的问题,设计了基于多GPU的正则表达式匹配引擎,并采用折半分组优化算法解决了有限状态自动机在大规模正则集合情况下由于空间爆炸无法使用的问题,并做了相关的优化,提升了数据匹配速度.实验结果表明:基于多GPU的正则表达式匹配性能较CPU提升了61倍,其数据吞吐率远优于其他加速方式.  相似文献   

12.
借助图形处理器(GPU)在通用计算领域的优势,解决图像配准面临的处理速度问题。研究了基于GPU加速处理图像配准的算法;根据Fourier-Mellin变换的图像配准算法原理,提出相应的GPU并行设计模型;利用计算统一设备架构的软硬件体系架构,实现Fourier-Mellin变换算法向GPU的移植。实验表明,运用所提出的并行方案完成分辨率1 024×1 024像素的图像配准耗时22ms,有效提升了图像配准效率,增强了幸运成像技术工程应用的可能性。  相似文献   

13.
针对图像颜色传递典型算法Reinhard算法需对图像中的所有像素进行遍历搜索处理,计算量大、运算速度较慢这一问题,提出了一种基于GPU加速的图像颜色传递算法;利用可编程图形处理单元GPU并行计算和高速浮点计算特性,将Reinhard运算过程转化为GPU中的纹理图像渲染过程,使得Reinhard算法在GPU中加速执行.颜色传递效果对比结果表明,在取得较好的颜色传递效果的同时,该算法计算速度大大提高,且对大尺寸图像提速性能更好.  相似文献   

14.
目的:评估深度学习图像重建算法在肠系膜上动脉CT血管成像(CTA)图像中的应用价值。方法:回顾性纳入40例患者肠系膜上动脉CTA的原始数据,利用滤波反投影重建(FBP)、自适应统计迭代重建(ASIR)30%、ASIR 60%、深度学习图像重建(DLIR)-L、DLIR-M、DLIR-H共6种算法重建图像,测量并分析肠系膜上动脉的CT值、SD值和信噪比,两位放射科医生进行主观图像评价。结果:6种算法重建图像CT值、噪声、信噪比和主观图像质量评分间差异有统计学意义(P<0.001),DLIR-H,DLIR-M、ASIR60%、DLIR-L、ASIR30%、FBP图像噪声依次增加,信噪比依次降低;3种DLIR的CT值无明显差异,但DLIR的CT值高于FBP和ASIR;主观评分显示DLIR重建图像血管锐利度增强。结论:DLIR改善了肠系膜上动脉CTA的图像质量,并且能提高血管锐利度,但也存在改变原始信息的风险。  相似文献   

15.
针对SIFT算法得到的特征点数目太大、算法复杂耗时的问题,提出一种改进的SIFT特征提取与匹配算法并在GPU上进行了加速处理。通过分析算法的并行性,充分利用GPU多线程和存储器的优势对SIFT算法进行优化。在关键点精确定位过程中增加了第二次筛选,有效减少了特征点数量。发挥圆形具有旋转不变的优势,减少了算法的步骤同时描述符降到了64维。实验结果表明,该算法在保证匹配准确度的同时速度随图像复杂度的增强而提升,处理1600×1200图像时加速比可达2.3倍,提高了算法在实际应用中的实时性。  相似文献   

16.
针对实际人脸识别系统需要满足实时性的应用需要,探讨了在图形处理器(GPU)硬件架构基础上的基于主成分分析(PCA)人脸识别系统设计与实现.结合统一计算设备架构(CUDA)的计算平台,通过将算法中耗时长、适合并行的部分过程映射到GPU上并行执行改进系统的加速实现.实验结果表明:相对于基于CPU平台的串行实现,基于GPU的实现在整体上能够获得约5倍的加速,而两个执行并行的模块能分别获得最大20倍和30倍的加速.  相似文献   

17.
在医疗诊断中,稀疏采样能减少CT扫描过程中辐射对患者的伤害.但直接对稀疏采样后的投影数据进行重建,会使CT重建后的图像出现失真、伪影等问题.为保证低采样率下重建图像的质量,提出了双字典自适应学习算法,参照Sparse-Land模型的双字典学习框架,将K-SVD算法与双字典学习算法框架相结合得到补全投影数据,利用FBP算法进行重建得到高质量的重建图像.实验结果表明,在低采样率下使用所提方法进行CT重建的图像质量优于COMP双字典学习算法和MOD双字典学习算法,并且此方法有效提高了CT图像重建在低采样率时的性能.  相似文献   

18.
随着GPU在高性能计算领域更多地用于科学计算,采用GPU技术对大型稀疏线性方程组进行计算,从而满足人们对计算速度和计算精度要求的提高。NVIDIA Fermi架构的开发,大大提升了GPU的双精度浮点运算能力。拟极小残差法(QMR)作为高性能计算领域中的重要迭代算法,基于求解稀疏代数方程组对ELL算法进行GPU优化。通过对不同规模线性方程组计算分析表明,QMR-GPU的性能提升为原始QMR的3.5倍,与传统的BICG法相比,QMR并行算法具有速度和存储优势,可获得良好的并行加速比。  相似文献   

19.
针对人工神经网络训练需要极强的计算能力和高效的最优解搜寻方法的问题,提出基于GPU的BFGS拟牛顿神经网络训练算法的并行实现。该并行实现将BFGS算法划分为不同的功能模块,针对不同模块特点采用混合的数据并行模式,充分利用GPU的处理和存储资源,取得较好的加速效果。试验结果显示:在复杂的神经网络结构下,基于GPU的并行神经网络的训练速度相比于基于CPU的实现方法最高提升了80倍;在微波器件的建模测试中,基于GPU的并行神经网络的速度相比于Neuro Modeler软件提升了430倍,训练误差在1%左右。  相似文献   

20.
在对大规模数据进行蜻蜓算法优化时,由于要计算的维度过多,迭代次数过大,从而耗费大量运算时间,而基于Spark分布式计算可以减少大数据运算的耗时。将DA算法在Spark分布式计算平台下进行并行计算,把蜻蜓种群被分配到各个节点,每节点中蜻蜓个体信息通过多线程并行更新,然后共享全局最优解,从而提高大规模数据优化的运行速度。最后仿真实验的验证是由4个测试函数进行测试,验证结果显示:在保证正确率的前提下,基于Spark的DA算法在对大规模数据优化的计算用用时最少。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号