共查询到19条相似文献,搜索用时 62 毫秒
1.
针对传统iDistance索引方法的缺陷和不足,提出了近似位置编码索引方法PLC—iDistance(ProximityLocationCode—iDistance),并在结构化P2P网络中实现了高维数据检索。在改进方法中,有效地缩小了需要搜索的范围,提高了检索性能;.实验表明,相比传统的iDistance索引方法.PLC—iDistance索引方法在时间性能上有较大的提高。 相似文献
2.
无线电射线跟踪效率一直是电波传播场强模拟预测的核心问题之一。随着计算统一设备架构(compute u-nified device architecture,CUDA)技术的提出彻底改变传统的x86硬件架构体系,从硬件底层上为并行计算提供了可能。在CUDA被提出用于通用计算的前提下,提出了CUDA技术与射线跟踪相结合,介绍了CUDA如何实现异构体计算,如何在CUDA硬件平台上实现并行化编程,然后通过一个简单的三维地理数据模型实现了无线电波射线跟踪的并行化计算。最后对实验结果进行了分析与总结,证明CUDA技术能很好地提高运算效率。 相似文献
3.
CUDA(Compute Unified Device Architecture,计算统一设备架构),是由NVIDIA开发的并行运算架构。对于软件开发人员,CUDA是一种通过行业标准语言,运行于图形处理单元上的计算方式。本文基于CUDA计算平台,对N-Body问题的并行实现算法进行了讨论,结果表明,合理的并行策略能有效地提高算法的运行效率。 相似文献
4.
利用CUDA并行计算框架和GPU高效的并行性和灵活的可编程性等特点,本文提出了数控仿真加工面并行显示算法,算法主要包括:并行式区间树索引遍历体素,对活跃体素的角点和边信息标记提取;体素标记与MC分类之间的映射匹配;将匹配结果对应的MC模型直接显示绘制.该基于GUDA框架的GPU并行算法,从理论上分析提高显示速度,降低计算时间,增大仿真的实时性. 相似文献
5.
探讨了针对概率XML文档集中与内容相关的关键字检索结果的排序问题,针对概率XML文档的特征提出了一种新的排序模式.与仅取决于检索结果概率的检索排序算法不同,本文提出的排序算法充分考虑了节点对文档的区分程度、节点描述文档的程度,以及XML文档本身的结构特性,设计了满足以上特征的检索结果排序模型,并针对排序模型提出了新的倒排索引结构.新的排序算法可以快速完成关键字检索,并将最相关的信息提供给用户.模拟数据集实验验证了该方法的有效性. 相似文献
6.
由于图像处理和检索过程中的数据量巨大,而且各种算法中大量卷积运算和矩阵乘法运算的存在,为图像处理过程中的并行算法设计和实现提供了可能。提高图像处理的速度是由图像数据的特点和图像处理算法的复杂性引起的。并行计算是提高处理和检索速度的有效手段之一。所以将以并行算法在图像处理和检索中的应用为研究对象,重点研究图像处理和图像检索的并行算法处理,并且证明多核环境下实现的基于内容的图像检索技术大大提高了图像的检索速率。 相似文献
7.
在研究已有基于流形排序图像检索算法存在问题的基础上,提出一种基于重选择流形排序的图像检索算法,此算法可以在节约时间的同时,进一步提高检索结果的精度,并在实际图像数据库中的实验结果验证了此算法的有效性. 相似文献
8.
碰撞检测是计算机图形仿真中的关键问题之一。尽管研究人员提出了许多优秀的碰撞检测算法,但是随着仿真场景规模的增大,在单处理器上实现的碰撞检测算法已经难以达到实时性的要求。因此,当前研究的核心问题是如何提高碰撞检测的速度。在对已有算法研究分析的基础上,提出了一种基于层次包围盒的并行碰撞检测算法。该算法的核心思想是用多处理器并行遍历层次树以避免单处理器需要两棵树相互遍历的情况,并提出以并行的方式生成层次包围盒树来进一步提高算法效率。结合CUDA平台提供的并行计算解决方案,整个算法在图形处理器上得以实现。结果表明,该算法显著地提高了碰撞检测的速度,满足实时性的需求。 相似文献
9.
为了实现大规模稀疏矩阵的高效求解,该文利用GPU(graphics processing unit)高带宽、低成本及强大的并行处理能力等优势,基于CUDA(compute unified device architecture)技术对采用CSR(compress spare row)格式存储的大规模稀疏矩阵进行了预处理共轭梯度(PCG)算法的求解优化。采用了存储器优化和数据流优化这2大并行优化策略,对稀疏矩阵与向量乘积和向量间内积与归约的GPU优化步骤进行了详细介绍。通过对实际的水工隧洞模型里的稀疏矩阵求解,得到在GTX580显卡上的计算效率是Intel i7CPU的13倍。该文提出的基于CUDA的PCG算法具备快速、高效求解大规模稀疏矩阵的能力。 相似文献
10.
为了能够有效提高基于时域的SAR回波仿真的运行速度,本文提出了一种基于GPU架构的SAR回波仿真优化实现方法。该方法结合GPU的计算密度高、高度并行的特点并利用CUDA流在GPU上同时执行多个任务,实现任务并行、指令并行和数据并行的三重并行,极大地挖掘了回波模拟全过程的并行性,缩短了回波仿真的运算时间。实验结果表明,该方法相对于传统的CPU上的串行算法平均加速比达到128倍,可用于实时信号处理。 相似文献
11.
张俊 《安徽师范大学学报(自然科学版)》2015,38(1):36-39
提出了一种数据流概率密度估计方法,在此基础上,经计算得到整个数据集在低维空间投影的信息熵,基于该信息熵实现了一种新的高维数据流的子空间聚类算法EPStream.实验表明,与传统的算法相比,该算法在聚类精度和时间方面都有所提高. 相似文献
12.
针对引导滤波算法运算速度慢、无法实时处理的问题, 提出基于统一计算设备架构(CUDA: Compute Unified Device Architecture)实现引导滤波算法的加速。利用CUDA 并行编程实现图像邻域窗口像素值求和,进而获得图像邻域均值; 通过利用寄存器和纹理存储器, 同时优化算法步骤, 获得引导滤波关键参数, 进而实现对算法的整体优化。实验结果表明, 与基于CPU 实现引导滤波算法相比, 基于CUDA 并行处理可在很大程度上提高运算速度, 基本达到了实时处理的要求。 相似文献
13.
介绍如何在CUDA上搭建KD-TRIE,并对其进行搜索,使其能适应解决邻居搜索问题.实验结果表明,当搜索半径较小(如整个空间直径的0.01和0.001),数据规模较大(如10~6)时,使用KD-TRIE进行搜索的效果最佳,与蛮力算法相比可以达到加速比5000~15000倍的效果;当搜索半径较大时,加速比会相应减少.采取优化措施,可以提高加速比. 相似文献
14.
针对传统光线投射算法绘制速度慢和GPU (Graphics Processing Unit,图形处理器)不能有效进行并行计算的缺点,文章提出一种基于包围跳跃的CUDA(Compute Unified Device Architecture,计算统一设备架构)光线投射算法,首先介绍了CUDA的编程模型和线程结构,然后用包围盒技术隔离体数据周围无效的空体素,减少投射光线的数目;利用光线跳跃技术,在包围盒内进行快速光线的合成,跳过透明的体素,减少大量体素的重采样;最后使用CUDA强大的并行处理计算的功能实现光线投射算法。实验结果表明,本文的方法在保证图像质量的同时,在绘制速度上比基于GPU加速的光线投射算法有14倍的提高,能够接近实时绘制,有很好的应用价值。 相似文献
15.
基于高维数据的特征选择性, 运用功能扰动集成方法, 对4种不同特征选择器的结果进行集成, 得到了分类精度高且稳定性较好的特征子集. 在基因数据集上与原有算法进行性能对比实验, 结果表明, 多特征选择混合算法可使特征选择的结果间具有互补性, 从而有效提高特征选择的稳定性和分类精度. 相似文献
16.
以高维分类为目标,从分类的准确率与模型解释性角度探讨了降维的必要性,分析了特征选择与抽取2类方法特点,并对常用的特征抽取方法,包括主成分分析(PCA)、偏最小二乘(PLS)和非负矩阵分解(NMF)进行了阐述.考虑到约减后的数据缺乏稀疏性与可解释性,提出了基于稀疏正则化的特征抽取模型,为高维特征降维提供了一种新思路. 相似文献
17.
基于空间划分的海量数据K邻近新算法 总被引:1,自引:0,他引:1
逆向工程中,对测量数据的处理首先要建立数据点之间的拓朴结构,这通常通过计算点的K邻近来实现.文中在分析现有算法的基础上,提出了一种新的基于空间划分的海量数据K邻近算法.该算法综合考虑了点云密度、点云数量以及K值对小立方体栅格边长的影响,通过确定合适的小立方体栅格边长以及排除不包含点云数据的小立方体栅格来确定邻近点最佳搜索范围,从而提高了搜索速度,保证了搜索结果的正确性.最后通过逆向软件的二次开发编程验证了算法. 相似文献
18.
高维Hopf分岔系统的最简规范形 总被引:7,自引:2,他引:7
针对高维Hopf动态分岔问题,研究了不经计算其传统规范形,直接计算高维任意阶数的Hopf分岔系统的最简规范形.利用中心流形定理,将原n维动力系统降为二维的中心流形,根据规范形理论,对中心流形上流的方程进一步化简,在不经过计算传统规范形的情况下,直接计算出其最简规范形中只包含的三阶和五阶项.编写了Mathematica程序,利用该程序,可直接由原n维动力系统计算出其最简规范形.通过3个算例验证了该方法的正确性和计算程序的高效性. 相似文献
19.
为了应对海量的字符(手写)识别,提出了一种将统一计算设备架构(Compute Unified Device Architecture,CUDA)和深度置信网络相结合的方法进行手写字符识别。该方法结合受限玻尔兹曼机和反向传播神经网络形成深度置信网络对字符图片数据进行识别,并且使用CUDA在图形处理器(GPU)上进行并行计算来完成识别过程。实验结果表明,使用该方法后,在不降低识别精度的情况下手写字符识别的速度大幅提升。 相似文献