首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 781 毫秒
1.
针对现有的图像哈希算法普遍存在对几何攻击(如:尺度、旋转)鲁棒性不足,以及不适合彩色图像等缺点,提出一种基于非下采样轮廓波变换的彩色图像感知哈希算法.该算法首先结合图像正则化,对分块后图像进行非下采样轮廓波变换,把对变换系数求得的统计值作为中间感知哈希;然后利用块与块统计值之间的关系对中间感知哈希进行量化;最后利用混沌序列对量化后的感知哈希序列进行加密,得到最终感知哈希.实验结果表明,该算法对常见的图像内容保持操作具有强鲁棒性,并具有很好的唯一性,在碰撞率和检错率方面均优于对比算法.  相似文献   

2.
针对现有的音频认证算法音频格式单一、算法不通用、认证效率低的问题,提出一种基于能零比的多格式音频感知哈希认证算法.该算法首先对待认证音频进行预处理、分帧和加窗,并计算每帧信号的短时能量和短时过零率,获得每帧信号的短时能量和短时过零率的比值;然后将获得的短时能量和短时过零率的比值作为音频信号的感知特征值;最后对感知特征值进行哈希构造,生成感知哈希序列.为提高算法的安全性,算法采用与哈希序列等长的密钥对哈希序列进行置乱.仿真结果表明:该算法对原始域和压缩域五种不同格式的音频内容都具有较好的鲁棒性和区分性,认证效率高.  相似文献   

3.
安全鲁棒的图像感知哈希技术   总被引:1,自引:0,他引:1  
为了对经过图像处理操作的图像内容进行准确认证,利用图像DCT低频系数的感知不变性生成了安全的哈希序列索引,用标准化后的DCT低频系数矩阵和基于密钥种子的随机数矩阵为数字图像生成哈希序列,研究分析了提出算法具有唯一性、鲁棒性和安全性的特性,实验结果表明,算法可以抵抗内容保持的修改操作,例如格式转换、中度几何变换和滤波失真等,具有较强的鲁棒性,同时算法具有较强的安全性,在同时得到伪随机序列生成器和密钥的情况下,才能获得图像的哈希值,另外,算法可为视觉近似图像生成相同或相近的400比特哈希值,且冲突率降低到10^08数量级,这种安全鲁棒的图像哈希方法可以用于数字图像认证和大量图像的数据库检索。  相似文献   

4.
本文将主成分分析(PCA)应用于图像哈希,设计基于特征距离的感知哈希算法。该算法从规范化图像中构造适合于数据降维的二次图像,接着对其进行PCA处理,用PCA降维特征的距离生成哈希序列。实验结果表明本文算法的接收机操作特性曲线的分类性能优于现有的3种哈希算法。大规模图像库的拷贝检测显示,本文算法有较好的拷贝检测性能。  相似文献   

5.
提出了一种基于压缩感知与小波域奇异值分解的图像哈希认证新方法.该方法首先通过小波变换得到图像的低频子带,然后对低频子带进行基于块的奇异值分解,最后对产生的最大奇异值数组进行基于压缩感知的随机投影,产生哈希认证信息,并偕同原图像传送到接收端.图像接收端通过比较哈希信息完成图像认证,并通过利用传递的哈希信息重建原始图像的奇异值,进一步映射奇异值差值到图像像素域,从而实现对图像篡改的识别与定位.大量实验结果证明了该方法的有效性.  相似文献   

6.
针对金融服务领域面临的严峻信息安全挑战,以及现有钓鱼网页检测方法的不足,提出一种基于支持向量机(support vector machine,SVM)的金融类钓鱼网页检测方法.采用网页渲染去除常见的页面特征伪装,提取统一资源定位符(uniform resource locator,URL)信息特征、页面文本特征、页面表单特征以及页面logo图像特征,构建特征向量训练SVM分类器模型,实现对金融类钓鱼网页的识别.在特征提取过程中,利用适合中文的多模式匹配算法AC_SC(AC suitable for chinese)提高文本匹配效率,并采用加速鲁棒特征(speeded-up robust feature,SURF)算法实现logo图像的特征提取与匹配.多方法实验结果对比表明,该方法针对性更强,能达到99.1%的检测准确率、低于0.86%的误报率.  相似文献   

7.
图像感知哈希(Perceptual Hashing)技术在图像的认证、识别和检索中得到广泛应用。融合人眼视觉系统(HVS)、Contourlet变换及奇异值分解(SVD)提出了一种新颖的图像感知哈希算法。该算法首先对图像进行Contourlet变换,计算变换后系数的视觉掩蔽特征值(掩蔽矩阵);然后对掩蔽矩阵分块后作奇异值分解,取每块最大奇异值作为图像的特征值,经过量化编码、压缩,生成最终哈希。该算法使用MATLAB作为实验平台,实验结果证明算法对大部分的感知保持操作具有较好的鲁棒性,不同图像之间也有较好的唯一性,同时对哈希进行加密处理,使得算法具有良好的安全性。  相似文献   

8.
为了提高语音感知哈希算法的鲁棒性和识别小范围篡改定位的能力,利用人类听觉模型提出了一种语音感知哈希算法.该算法基于人类听觉特性,首先对倒谱系数MFCC算法每帧的滤波器数量进行控制,得到每帧语音的梅尔频率倒谱参数;其次对自适应梅尔倒谱系数MFCC参数和语音LPCC系数进行融合,并采用分块方法对特征矩阵进行处理,对特征块进行2DNMF分解运算,降低特征矩阵的复杂度;最后对分解后的系数矩阵进行哈希构造,得到语音感知哈希串,利用哈希匹配实现语音认证.结果表明:该算法可以有效提高哈希认证的鲁棒性,并能够实现语音小范围篡改定位功能.  相似文献   

9.
鉴于尺度不变特征变换(SIFT)结构复杂域,k-d树匹配算法对于高维特征计算量过大,对SIFT特征信息利用少并且匹配的结果有大量误差,因此提出一种基于感知哈希与尺度不变特征变换的快速拼接算法.首先,使用感知哈希算法,提取匹配图像与待匹配图像的HASH指纹,快速识别出两幅图像的相似部分;然后,计算并提取出相似区域SIFT特征点.在特征点匹配算法上,替换传统的k-d树算法,利用SIFT特征点的主方向以及坐标位置信息过滤掉不必要的特征点匹配,减少匹配耗时;最后,用加权最佳拼接缝图像融合算法消除突变,完成拼接.实验结果显示,本文算法提取的特征点数比传统算法更少,在匹配算法上减少计算量,同时还粗过滤了一部分误匹配,提高了匹配准确度,算法的耗时较传统方法有明显提升.  相似文献   

10.
以赤足足迹压力图像为研究对象,采集了40人的5 230幅赤足足迹压力图像,在具有较低存储消耗的哈希算法基础上,结合深度学习方法设计了一种深度中心匹配哈希(DCMH)网络实现足迹的检索.该网络首先根据足迹压力图像的特点构建深度特征融合模块,提取反映足迹形态结构的全局特征和压力分布的局部特征,并将两种特征进行融合;然后在哈希编码模块通过全连接层将融合后的特征映射为1 024维特征向量,并通过哈希层生成哈希码;在网络优化过程中通过构建深度中心匹配损失函数从而减小哈希码与对应哈希中心之间的距离.深度中心匹配损失函数通过伯努利分布生成哈希中心,设计对数中心损失函数减小同类足迹压力图像数据哈希码与哈希中心的距离,并设计相似性损失函数作为正则化项约束每个批次数据间的相似性关系.通过在40人的赤足足迹压力图像数据上进行图像检索实验,本文算法检索结果的mAP可以达到0.99,优于传统的哈希算法及常用的深度哈希算法,为足迹的进一步的现场应用提供技术支撑.  相似文献   

11.
目前检测网络欺诈均采用人工的方式。该文提出了一种基于EMD(earth move distance)算法的视觉相似度欺诈网页检测算法,算法将网页在像素级别的相似度比较结果作为依据,判断某网页是否为欺诈网页。在2个实际系统中应用和实践了该算法,通过对9280个网站进行检测,检测出欺诈的正确率为90.90%,结果显示该算法具有较高的欺诈检测精度以及较低的时间性能开销。  相似文献   

12.
目前检测网络欺诈均采用人工的方式。该文提出了一种基于EMD(earth move distance)算法的视觉相似度欺诈网页检测算法,算法将网页在像素级别的相似度比较结果作为依据,判断某网页是否为欺诈网页。在2个实际系统中应用和实践了该算法,通过对9280个网站进行检测,检测出欺诈的正确率为90.90%,结果显示该算法具有较高的欺诈检测精度以及较低的时间性能开销。  相似文献   

13.
互联网的迅速发展,数据不断增加,使得个性化数据的获取难度越来越大.主题爬虫作为一种垂直检索方式,已经成为一个热门研究领域.传统的主题爬虫往往是通过网页链接之间的关系下载网页,然后再计算下载的网页与给定主题之间的相关关系.传统的主题爬虫一方面割裂了网页链接结构和网页内容主题之间的关系,使得两个部分分开计算; 另一方面下载过程的网页主题相关性不强,会下载大量的主题无关网页.本文提出一种新的基于PageRank 算法主题爬虫算法将网页主题相似度计算与传统的PageRank 算法相结合,将网页链接结构与网页主题相关性结合在一起.另外本文将语义相似性引入到主题爬虫里,实验结果表明本文提出的基于语义相似聚合的主题爬虫算法大大提高了主题爬虫的查全率.  相似文献   

14.
徐长春 《科技信息》2009,(3):78-78,113
网页设计的人性化问题是当前网页设计界一直都在探讨的问题,但是大都停留在功能、技术方面的实践,而忽略了艺术层面的人性化关照。本文依据设计的美学原则,从色彩搭配、版式设计、页面格调等方面进行阐述,旨在使网页设计者能够对艺术因素方面有所重视,使网页设计能够真正的达到技术性与艺术性的完美结合.发挥网络的更大功效。  相似文献   

15.
欺骗网页与正常网页有着极其相似的特征,诱导并欺骗用户输入个人机密信息,严重威胁着电子商务正常运行.基于此,提出了一个欺骗网页检测算法.算法首先对网页进行分割,然后提取各个块的特征及其相对位置关系,得到网页特征关系图,并以此计算出两个网页之间的相似度.如果发现可疑网页与某个受保护网页之间的相似度小于预设值,判定该可疑网页为针对受保护网页的欺骗网页.实验结果表明,本算法可以有效检测欺骗网页,具有一定的实用性.  相似文献   

16.
一种基于后缀树的中文网页层次聚类方法   总被引:1,自引:3,他引:1  
为了便于用户浏览搜索引擎产生的搜索结果,结合STC算法和变色龙算法提出了一种中文网页的层次聚类方法-STCC算法。该方法采用雅可比系数修改了STC算法中基本类相似度的计算方法,然后根据基本类相似度矩阵,利用变色龙算法完成网页聚类。实验结果表明:STCC算法与STC算法相比。聚类精度提高将近10%,避免了单链接算法的链式效应,适用于大规模网页聚类。  相似文献   

17.
为了提高哈希序列对几何攻击的鲁棒性与正确识别率,设计了基于多方向互交叉模式算子与极坐标变换的鲁棒哈希算法。引入插值运算与Gaussian滤波器,完成图像的尺寸规范化与去噪处理,使其对于任意的可疑目标均可输出一个固定长度的哈希序列。基于极坐标变换(log-polar transform,LPT),对滤波规范图像实施处理,输出抗旋转攻击的二次图像。随后,利用多方向互交叉模式算子,从8个方向将二次图像变换为两个编码映射。将两个编码映射分割为非重叠子块,通过提取这些子块的直方图,将其视为纹理特征,作为第一个哈希序列。利用强度概率密度梯度代替强度梯度,对SURF (speeded up robust features)方法予以改进,充分提取图像中的稳定角点,形成角点图像;将角点图像分割为一系列的非重叠子块,通过计算每个子块所含的角点数量,将含有结构信息最丰富的子块予以标记,输出其在图像中对应的位置信息;并借助离散小波变换(discrete wave transform,DWT)来分解这些标记子块,获取每个子块对应的低频系数。联合位置信息与低频系数,形成结构特征,作为第二个哈希序列。设计加密机制,分别对两个哈希序列完成扩散,从而形成最终的哈希序列。通过计算源图像与可疑图像之间的l_2范数距离,将其与用户识别阈值的大小对比,对目标的真实性完成判别。试验数据显示:较已有的哈希生成机制而言,所提方法拥有更高的鲁棒性,对各类几何攻击均有更高的识别准确率。  相似文献   

18.
如何准确表达用户意图,判断网页与用户需求的相关性是信息检索技术研究的重要方向。本文提出了一种基于网页内容分割的语义信息检索算法。该算法根据网页半结构化的特点,按照HTML标记和网页的内容将网页进行区域分割。在建立HTML标记树的基础上,利用内容相似性和视觉相似性进行节点的整合。根据用户的查询,充分利用区域信息来对相关的检索结果进行排序。实验表明,本文提出的方法可以显著地提高搜索引擎的查询效果。  相似文献   

19.
一种新的高效大型音乐数据库查询算法   总被引:5,自引:0,他引:5  
在基于哼唱的音乐信息检索领域中,查询处理算法一直是一个重要的研究课题。根据人对乐曲相似理解的实验结果,设计了新的基于单侧连续匹配的可容错的近似匹配的算法.此算法采用n—gram的顺序hash索引,加快了可容错的查询处理速度.还设计了一系列包括各种类型和各种数量错误的查询的实验,来比较该算法和其他两种常用算法的查询处理速度和容错能力.当测试数据集为78000首网上收集的MIDI乐曲段,包含各种错误的查询为1000个时,该算法取得79%的前3位命中率和87%的前10位命中率.这些结果表明,该方法的性能高于现有的算法.表2,参8。  相似文献   

20.
针对元搜索的重复网页问题,提出基于元搜索的网页去重算法,并通过实验对算法进行有效性验证。该算法首先对各成员搜索引擎返回来的结果网页的URL进行比较,然后对各结果网页的标题进行有关处理,提取出网页的主题信息,再对摘要进行分词,计算摘要的相似度,三者结合能很好的检测出重复网页,实现网页去重。该算法有效,并且比以往算法有明显的优势,更接近人工统计结果。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号