首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 187 毫秒
1.
为便于学生更好地理解信号处理类课程中抽象的概念、原理及分析方法,基于Labview构建了信号处理虚拟实验平台,包含基本信号的产生、信号的运算、采样定理、图像处理、声音采集以及滤波器设计等相关实验,并以采样定理和DCT图像压缩为例,阐明了利用Labview实现信号处理的方法.  相似文献   

2.
为了能够有效提高基于时域的SAR回波仿真的运行速度,提出了一种基于图形处理器(GPU)架构的SAR回波仿真优化实现方法。该方法结合GPU的计算密度高、高度并行的特点并利用CUDA流在GPU上同时执行多个任务,实现任务并行、指令并行和数据并行的三重并行,极大地挖掘了回波模拟全过程的并行性,缩短了回波仿真的运算时间。实验结果表明,该方法相对于传统的CPU上的串行算法平均加速比达到128倍,可用于实时信号处理。  相似文献   

3.
针对传统的采用单片机来处理光栅信号的方法存在的不足,构建了一种基于TMS320VC5402的光栅信号处理实验平台.设计中DSP主要完成光栅信号的采集、滤波、细分、辨向和光栅信号的频谱分析,DSP处理的结果通过TL16C750实现的TMS320VC5402与PC机的串行通信来观察.采用DSP处理器构建的光栅信号处理实验平台解决了以往的光栅信号处理系统只能处理输入信号频率较低或者静态的光栅位移测量的问题.实验结果表明:基于DSP处理器的光栅信号处理平台,提高了信号的处理速度,进一步提升了光栅位移测量的应用范围,具有较强的工程应用价值.  相似文献   

4.
为了能够有效提高基于时域的SAR回波仿真的运行速度,本文提出了一种基于GPU架构的SAR回波仿真优化实现方法。该方法结合GPU的计算密度高、高度并行的特点并利用CUDA流在GPU上同时执行多个任务,实现任务并行、指令并行和数据并行的三重并行,极大地挖掘了回波模拟全过程的并行性,缩短了回波仿真的运算时间。实验结果表明,该方法相对于传统的CPU上的串行算法平均加速比达到128倍,可用于实时信号处理。  相似文献   

5.
图形处理单元(GPU)已经成为当今的主流计算系统的一个组成部分,现代GPU不仅是一个功能强大的图形引擎,也是一个高度并行的可编程处理器,GPU的峰值运算和内存带宽往往大幅超出其CPU所对应的峰值和内存带宽。本文介绍了基于GPU通用计算框架的JACKET加速MATLAB的计算仿真方法,通过FFT算法得出仿真结果,分析在CPU和GPU运行环境下的GFLOPS和加速比,最后得出基于GPU的MATLAB计算仿真程序运行效率在JACKET的加速下大大提高了。  相似文献   

6.
为便于学生更好地理解信号处理类课程中抽象的概念、原理及分析方法,基于 Labview 构建了信号处理虚拟实验平台,包含基本信号的产生、信号的运算、采样定理、图像处理、声音采集以及滤波器设计等相关实验,并以采样定理和DCT图像压缩为例,阐明了利用Labview实现信号处理的方法。  相似文献   

7.
基于DSP与DDS的混沌信号源的设计与实现   总被引:7,自引:0,他引:7  
高频混沌信号源的实现对混沌通信、现代电子对抗、非线性信号处理等领域有着极其重要的意义.提出了一种基于数字信号处理(DSP)与直接数字频率合成(DDS)技术的新的高频混沌信号源的解决方案,具有数字化、结构简单、频率分辨率高和频率转换速度快等优点.具体阐述了基于该方案的混沌信号源的硬件和软件的设计和实现过程.以Lorenz混沌方程为例,使用矢量信号分析仪对混沌信号源的输出信号进行了解调,验证了其正确性.实验结论表明该设计方案是行之有效的.  相似文献   

8.
在高分辨率图像日益普及的情况下,Roberts边缘检测的处理速度急需进一步提高。在CPU表现不尽如人意的情况下,基于CPU/GPU和CPU/MIC的高度并行运算的研究愈加深入。在分析Roberts算法特点的基础上,将能并行的部分移植到GPU和MIC上进行。完成基于CPU/GPU和CPU/MIC的异构架构上的Roberts算法实现,并针对CPU/MIC上将程序进行向量化优化。实验结果表明,在相同单精度浮点运算能力下,GPU处理低分辨率图像的速度更快、加速比更高,但处理高分辨率图像时MIC的加速比最高为23.52,高于GPU的21.43。  相似文献   

9.
线性调频信号的相位匹配去噪处理   总被引:1,自引:1,他引:0  
线性调频信号被广泛应用到雷达、声纳、地震和其他探测的很多领域,目前对其应用比较广泛的获知信号存在的方法是基于相关的匹配滤波处理,但匹配滤波处理是进行信号压缩来获取最大的信噪比.采用相位匹配方法对线性调频信号进行处理,去除噪声还原信号从而获得高的信噪比,通过仿真实验证明该方法应用在受到噪声干扰的线性调频信号处理上效果很好.  相似文献   

10.
针对大数据量的卫星遥感影像进行匀光处理的过程计算量大,效率低的情况,本文提出了一种基于CUDA平台的卫星影像快速匀光并行处理方法,根据现有算法结构上的特点,将处理过程中的主要运算部分交由GPU完成。实验通过对资源三号卫星所得影像做匀光处理,对比了GPU与多核CPU运行速度和效果,分析了该方案的加速性能和实用性。实验表明,在保持原处理质量的同时,该方法构建的并行处理模型有效地提高了原有匀光算法的处理速度。  相似文献   

11.
针对二维水动力模型应用于城市内涝模拟时,在大尺度区域或精细分辨率情形下运行耗时过长的问题,通过耦合SWMM模型和LISFLOOD-FP模型构建城市内涝模型,采用GPU的并行计算技术加速城市二维内涝模型。以盐城响水县城区的内涝模拟为例,对并行模型的效率进行分析,结果表明,基于GPU的并行计算技术可以显著提升模型运行效率,在5 m分辨率下能够8 min内模拟12 h的内涝事件,可用于突发内涝事件下的快速响应;并行模型的加速效果在更高的空间分辨率下表现更明显,在2 m分辨率下取得最高10.86倍的加速比;要最大化发挥GPU计算效率,首先需要单步长有较大的计算量,其次是要尽量减少与GPU的数据频繁传输导致的额外开销。  相似文献   

12.
针对"主核心+协处理器"式异构并行系统采用数据平均划分再分批执行的方法来解决主协式处理架构的额外通信开销时未能充分利用系统资源的问题,提出了一种新的数据比例划分方法.结合系统通信带宽和图形处理器(GPU)的计算能力,将应用数据按比例划分为大小不同的数据块后分批提交给GPU处理,使系统的传输资源PCI-E总线和计算资源GPU在一段时间内并行工作,从而实现了应用通信与计算的重叠.在处理按照比例划分的数据块过程中,尽可能充分利用系统的传输资源和计算资源,以减少数据传输和计算的相互等待时间.实验结果表明,采用数据比例划分方法后的应用性能明显提高,可以有效地重叠通信与计算时间,矩阵相乘和快速傅里叶变换总执行时间比未划分时分别减少了5%和30%左右,比平均划分时分别减少了3%和6%左右.  相似文献   

13.
随着图像数据量的增加,传统单核处理器或多处理器结构的计算方式已无法满足图像灰度化实时处理需求.该文利用图像处理器(GPU)在异构并行计算的优势,提出了基于开放式计算语言(OpenCL)的图像灰度化并行算法.通过分析加权平均图像灰度化数据处理的并行性,对任务进行了层次化分解,设计了2级并行的并行算法并映射到"CPU+GPU"异构计算平台上.实验结果显示:图像灰度化并行算法在OpenCL架构下NVIDIA GPU计算平台上相比串行算法、多核CPU并行算法和CUDA并行算法的性能分别获得了27.04倍、4.96倍和1.21倍的加速比.该文提出的并行优化方法的有效性和性能可移植性得到了验证.  相似文献   

14.
面向CPU+GPU异构计算的SIFT   总被引:1,自引:0,他引:1  
依据图形处理器(GPU)计算特点和任务划分的特点,提出主从模型的CPU+GPU异构计算的处理模式.通过分析和定义问题中的并行化数据结构,描述计算任务到统一计算设备架构(CUDA)的映射机制,把问题或算法划分成多个子任务,并对划分的子任务给出合理的调度算法.结果表明,在GeForce GTX 285上实现的尺度不变特征变换(SIFT)并行算法相比CPU上的串行算法速度提升了近30倍.  相似文献   

15.
设计基于图形处理器(GPU)并行计算与图像匹配的条码识别算法.首先,设计基于归一化协方差的图像匹配算子,定位每个条码的位置.然后,根据条码面积、周长、形状因子,确定条码种类.最后,采用GPU并行计算方式完成条码解析.实验数据显示:与当前条码识别技术相比,所提算法能够同步识别多种条码,且在面对光照强度较暗或过高时,该算法具有更高的稳定性与抗干扰性,其仍具有更高的识别精度与效率.  相似文献   

16.
克里格法是空间信息统计学中最主要和最基本的一种局部估计方法, 利用区域化变量的空间分布特征实现对未知区域的估计. 针对克里格算法高时间复杂度问题, 提出一种基于GPU 的并行克里格算法, 实现对克里格插值算法的改进, 在精度不降低的情况下很好地解决了克里格算法高时间复杂度的问题. 西藏甲码铜资源量估算结果表明, 并行克里格方法具有良好的加速比与并行计算效率, 验证了该方法的可实践性, 与纯CPU 计算的对比实验验证了GPU 并行计算结果的正确性与可信度.   相似文献   

17.
提出一种基于图形处理单元(Graphic Processing Unit,GPU)的不可压缩流体并行模拟算法.该算法使用并行基数排序技术提升了邻居查找效率,同时使用了GPU上的片上高速共享存储器,将流体计算过程中所需用到的数据尽可能从GPU的全局存储器中拷贝至共享存储器中,减小数据访问延迟,提高模拟效率.实验结果表明,基于GPU的并行模拟算法可以大幅提高流体模拟程序的性能,与基于CPU的单线程实现相比,可以到达38.2倍的加速比.  相似文献   

18.
比较分析了在不同网格大小介质模型情况下,分别采用串行计算、CPU 16个线程并行计算和4块GPU并行计算进行各向异性弹性波动方程正演模拟的执行时间差异。发现在网格点为2563的大模型上,用4块GPU的并行模拟计算相对16线程并行计算与串行计算的加速分别为30倍与156倍。表明多GPU并行算法可以显著缩短数值模拟时间,而且模型网格越大,加速效果越显著。因此,在单机环境下进行大尺度模型的各向异性弹性波正演模拟,采用多GPU并行计算方式是一个合适的加速选择。  相似文献   

19.
分析了球面映射算法速度过慢的原因,针对传统插值计算中普遍存在的速度与精度相互制约的问题,改进了现有的基于立体投影的半球面纹理映射模型,提出了基于GPU的球面化算法,使用CUDA并行编程实现双线性插值的并行计算。球面化实验表明该算法在保证输出精度的前提下,可获得10倍左右的加速比,显著提高了计算速度,可用于实时性较高的应用场合。  相似文献   

20.
介绍了在桌面计算机上利用格子Boltzmann方法(LBM)与图形处理器(GPU)计算的发展背景,分析了LBM的标准形式及其天生并行特性的成因,介绍了所采用的CUDA编程模型及Kepler计算架构.为了验证桌面计算机上利用LBM的GPU计算的应用能力,对二维方柱绕流问题进行了数值模拟,并将模拟结果与有限体积法的计算结果进行对比.结果表明:对于方柱绕流问题,GPU计算的模拟计算效率约为CPU计算的3.4倍,桌面计算机上利用LBM的GPU计算具有一定的通用科学计算能力.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号