首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 31 毫秒
1.
针对监控视频帧复制篡改,提出一种基于时空域特征的篡改检测算法.受空域局部二值模式(LBP)算子设计的启发,设计一种时域TCS-LBP算子,反映当前视频帧与其前后若干帧在同一空间位置像素之间的关系;然后在当前图像上逐点计算TCS-LBP特征值,构造能同时反映当前视频帧时域和空域特征的特征图像;利用特征图像,逐帧检测是否存在帧复制;对于初步检测到的篡改区域,再进行虚警和漏检的修正以及篡改边界的精确定位.实验结果表明,文中算法具有良好的性能,与现有的2种同类算法相比,性能明显提升.  相似文献   

2.
图像技术的发展,使其成为图像篡改的双刃剑.如何对已篡改的图像进行数字取证成为当前研究热点之一.本文对基于JPEG特性的图像被动取证技术进行分析,根据JPEG图像被动取证技术中不同算法所选用的特征量,将现有的技术方法分为两类:针对JPEG重压缩的被动取证和针对JPEG重采样的被动取证.详细分析了上述两类方法各自的特点及对应的优缺点,指出当前基于JPEG特性的图像被动取证的技术的不足之处,并对相关技术的未来发展方向进行了展望.  相似文献   

3.
基于特征抽取是表情识别算法中的重要步骤,但是现有算法依赖手工设计特征且适应性差等问题,提出基于深度时空域卷积神经网络的表情识别模型,采用数据驱动策略直接从表情视频中自动抽取时空域中的动静态特征。使用新颖的卷积滤波器响应积替代权重和,使得模型能同时抽取到动态特征和静态特征。引入深度学习的多层设计,使得模型能逐层学习到更抽象、更宏观的特征。采用端对端的有监督学习策略,使得所有参数在同一目标函数下优化。研究结果表明:训练后的卷积核类似于Garbor滤波器的形态,这与视觉皮层细胞对激励的响应相似;该模型能对表情视频进行更准确分类;通过与其他几种近年出现的算法进行比较,验证该算法的优越性。  相似文献   

4.
图像匹配是计算机视觉中一个重要的研究方向,是图像拼接、图像检索等相关应用的基础工作。如何实现快速、高效的图像匹配技术是本文的主要研究内容。提出一种基于SURF和扩展哈希的空间约束图像匹配算法,为了提高特征检测的速度,首先提取SURF特征描述图像局部特征,然后在局部敏感性哈希算法基础上,提出一种改进的高维数据搜索算法,该改进算法变换局部敏感性哈希的投影空间,使变换后的每一维特征数据都比原算法具有更好的局部敏感性。最后采用空间约束RANSAC算法剔除误匹配点,进一步增加算法的鲁棒性。实验结果表明,本文提出的算法与传统算法如BBF、LSH以及iDistance等算法相比具有更优的搜索效率,在一定程度上提高了图像匹配的性能。  相似文献   

5.
文中针对图像篡改中最常见的复制粘贴篡改被动取证问题展开图像分析研究,提出了一种基于仿射尺度不变特征变换(ASIFT)和圆投影特征的算法,用于检测图像中是否存在复制粘贴篡改.实验结果表明:基于仿射尺度不变特征的算法对具有明显角点特征的篡改图像的取证效果较好,而基于改进圆投影特征的算法对不具备明显角点特征的篡改图像(如随机性纹理、平坦区域)的取证效果较好,因此联合使用基于这两种特征的算法对常见的复制粘贴型图像篡改进行被动取证能达到较好效果.  相似文献   

6.
计算机取证模型大致可以分为静态取证模型和动态取证模型两类。动态取证模型主要结合入侵检测技术,检测异常事件的发生,从而采集动态数据,对采集来的数据进行整理、归纳后并入证据库。静态取证技术是在事后取证,对涉事计算机设备进行分析处理,提取磁盘和移动存储设备的内容,对其进行分析归类,最后形成证据。该文主要结合事后静态取证技术提出一种基于证据文件特征集构建的取证模型,阐述了模型提出的目的和意义,分析了取证模型各模块的功能和实现方法,叙述了基于特征集构建的取证模型的取证步骤,最后介绍了皮尔森相似度算法在构建特征集模型中的应用。  相似文献   

7.
基于压缩传感的图像哈希水印算法研究   总被引:3,自引:0,他引:3  
现有基于图像内容的水印算法在鲁棒性和篡改检测方面存在不足,提出了一种基于压缩传感的图像哈希水印算法。该算法利用压缩传感对图像进行随机投影,得到的压缩测量值作为图像内容特征,通过HMAC(Hash-based Message Authentication Code,基于哈希的消息认证码)算法生成图像摘要,并以水印的方式嵌入到原始图像中;认证时,提取图像中的水印,并对认证图像进行压缩传感随机投影,得到原始图像和认证图像的摘要,通过摘要对比,实现图像认证和篡改检测。仿真实验表明,该方法不仅具有较强的鲁棒性和安全性,还具有较好的篡改检测能力。  相似文献   

8.
大规模图像检索具有广泛的应用前景,其核心在于图像特征提取和高效相似性计算.深度学习技术在图像特征提取具有较强的特征表示能力,同时哈希技术在高维数据近似计算方面具有较好的性能.目前,基于哈希学习的技术在大规模图像检索及相似性查询方面获得了广泛的研究和应用.本文结合卷积神经网络和哈希技术实现商标图像检索,通过深度学习技术提取商标图像特征,使用位哈希对数据对象编码,在海明空间折中查询的质量和效率.基于卷积神经网络模型,提出了深度哈希算法,并研究了损失函数和该数据集上的优化器选择,通过获取符合哈希编码规范的位编码实现对在二元空间对商标图像数据快速检索,该方法分为离线深度哈希学习和在线查询两个阶段.在真实商标数据集上进行实验,实验结果表明,本文方法能够在商标数据集上获得较高质量的位编码,并具有较高的检索精确度和在线查询效率.  相似文献   

9.
针对视频中运动目标从固定背景中移除的情况,提出一种基于能量可疑度计算的视频篡改检测方法,能定位时域和空域上的篡改位置.首先,计算视频各帧能量可疑度,提取时域上的篡改帧序列,再通过帧差法计算可疑运动点图像,提取空域上的可疑运动图像块,根据能量可疑度排除干扰图像块,确定目标移除块,从而实现空域上的篡改定位.实验结果表明,该方法能有效地检测出在固定背景下运动目标是否被移除.  相似文献   

10.
为减缓存储系统中传统重复数据删除方法在高性能固态存储盘中存在的指纹计算性能瓶颈,提出了重复数据删除指纹计算的性能优化方法 R-dedup。在基于内容分块算法基础上,将切分后形成的所有数据块进一步切分为更小粒度的48B等长数据片。基于Rabin哈希长度小于原始数据、多个Rabin哈希同时发生碰撞概率极低、数据片的Rabin哈希可以重复利用基于内容分块算法在滑动窗口过程中产生的计算结果的基础,利用数据片的Rabin哈希替代原始数据,并将其作为数据块的SHA-1指纹输入,减少SHA-1函数数据计算量,提高指纹计算性能。选取Linux内核、Imagenet等5组具有代表性的数据集,对R-dedup和标准基于内容分块的重复数据删除方法在数据分块性能、指纹计算性能、索引表检索性能和I/O性能方面分别进行了比较。结果表明:R-dedup的数据分块性能、索引表检索性能、I/O性能与对比方法具有4%左右的误差波动,性能基本一致;R-dedup的指纹计算吞吐率是对比方法的165%~422%,总体吞吐率是对比方法的6%~54%。  相似文献   

11.
基于分块级的模式噪声,提出一种基于最大似然估计的自适应阈值视频被动取证方法.它采用小波去噪和维纳滤波提取传感器的模式噪声,并通过固定大小的滑动窗口,计算分块级的能量梯度、信噪比和相邻帧相同位置块模式噪声的相关性构造特征值向量.在此基础上,采用最大似然估计得到判别篡改区域的自适应阈值.仿真实验结果表明,提出的方法对于复制-粘贴的视频内容篡改取得了较好的取证效果,并且能够对较小区域的篡改进行定位.  相似文献   

12.
数字水印技术是数字媒体版权保护和管理的主要方法。在广播电视领域,视频水印需处理的数据量大,对嵌入算法的时间复杂度限制较大,同时对视频质量要求也较高。数字水印技术主要分为空域和变换域两种。空域算法时间复杂度低,但鲁棒性不好;而变换域算法鲁棒性较好,但时间复杂度高。因此,在广播电视视频水印中,需要鲁棒性好且时间复杂度低的水印嵌入算法。这样,用空域的方法实现数字视频的变换域水印,就成为一个首选的方法。但是,目前我们尚不知道该方法的性能。本文基于DCT变换的频域水印算法,首先介绍了频域水印的空域实现的原理,然后,基于两个典型的频域水印算法,通过800幅图片的实验,测试了该算法的空域实现的时间复杂度和PSNR。实验结果表明,频域视频水印的空域实现,具有很好的性能。  相似文献   

13.
近年来,图像哈希算法在多媒体安全领域引起了广泛的关注,已成功应用于社会事件检测、复制检测、数字水印等领域,但许多算法在鲁棒性和唯一性之间没有达到很好的平衡,针对这个问题,本文提出了一种基于图论的视觉显著模型的图像哈希算法。该算法首先通过GBVS模型构造预处理后图像的视觉显著图,然后通过Logistic混沌映射生成位置映射数组,最后对数组数据进行哈希加密并得到最终的哈希值。利用公开的数据集去验证该算法的性能,结果表明该算法可以抵抗常见的数据操作,其分类性能也优于某些文献算法。  相似文献   

14.
图像哈希是根据人类视觉系统的特点,以图像内容为基础,从数字图像数据中提炼出剪短的二进制代码,映射成固定的数字串,可用于反映图像的重要视觉特征.通过对现有图像哈希算法的调查研究,提出一种新颖的哈希提取算法.该算法了结合图像离散小波变换(DWT,Discrete Wavelet Transform)系数和环形分割算法计算出图像特征向量,最后量化压缩编码成图像哈希序列.实验结果表明该算法具有良好的鲁棒性,且优于对比算法.  相似文献   

15.
合成图像取证是数字图像取证的一个重要研究内容,研究合成图像被动取证技术对确保数字图像的原始性和真实性有着极其重要的意义.根据合成图像被动取证技术研究角度不同.将现有的技术方法分为3大类:基于传统特征的合成图像取证、基于盲源分离的合成图像取证、基于稀疏表示的合成图像取证.然后分别介绍了3类取证技术的基本特征和典型算法.并对不同方法进行了分析比较和总结.最后指出当前研究中存在的一些主要问题.给出本领域未来的研究方向.  相似文献   

16.
当前信息时代,随着计算机和多媒体技术的发展,在互联网尤其是移动互联网中,因视频数据结构复杂,特征维度高,其存储、传输和检索都面临着巨大的挑战,视频哈希学习是解决上述挑战的重要方法之一,已成为多媒体处理领域的研究热点.现有方法主要是利用视频不同特征构造视频哈希,但不同特征存在关联关系,为充分利用视频不同特征之间的关联关系,克服传统视频哈希编码的局限性,提出一种基于特征融合和曼哈顿量化的视频哈希学习方法.该方法首先提取视频的全局、局部和时域特征,并利用张量分解理论实现不同特征的融合,获取视频融合特征表示.然后使用曼哈顿量化对视频融合特征进行量化学习编码,得到视频哈希序列.与传统视频哈希算法相比,该方法不仅充分利用了多特征之间的关联互助关系,而且对原始视频特征的不同维度分别进行编码,较好的保持了原始特征之间的结构相似性.实验结果显示,该方法具有较好的性能.  相似文献   

17.
剔除重复数据是保证网络高效运行不可缺少的步骤,但该过程易受信号强度、网络装置、路由器性能等问题的干扰。为此,提出基于最小哈希的网络单信道重复数据剔除算法。首先利用哈希算法中的散列函数对网络单信道数据实行聚类处理,然后采用带有监督判别的投影算法对聚类后的数据进行降维处理,最后采用代数签名预估数据,保证数据之间的计算开销最小,再构造最小哈希树生成校验值,在更新去重标签的同时,通过双层剔除机制完全剔除单信道中的重复数据。实验结果表明,该算法的执行时间短,且计算和存储开销较小。  相似文献   

18.
为了提高语音感知哈希算法的鲁棒性和识别小范围篡改定位的能力,利用人类听觉模型提出了一种语音感知哈希算法.该算法基于人类听觉特性,首先对倒谱系数MFCC算法每帧的滤波器数量进行控制,得到每帧语音的梅尔频率倒谱参数;其次对自适应梅尔倒谱系数MFCC参数和语音LPCC系数进行融合,并采用分块方法对特征矩阵进行处理,对特征块进行2DNMF分解运算,降低特征矩阵的复杂度;最后对分解后的系数矩阵进行哈希构造,得到语音感知哈希串,利用哈希匹配实现语音认证.结果表明:该算法可以有效提高哈希认证的鲁棒性,并能够实现语音小范围篡改定位功能.  相似文献   

19.
现有基于深度学习网络的换脸视频检测算法大多存在跨库检测性能较弱和泛化性能不足的问题。文章融合空域、频域和时域的图像特征信息,提出一种基于多域特征融合的换脸视频检测算法。采用多路卷积特征提取网络分别提取空域颜色通道特征、频域离散傅里叶变换特征以及时域光流特征,并引入通道注意力机制对各支路特征进行优化和有效融合。所提算法在4个公开数据库上进行了实验,与现有同类方法相比,在保持良好库内检测性能的同时,显著提升了跨库检测性能,表现出更为稳定的泛化性能。  相似文献   

20.
基于计算机视觉的手语识别技术可以为聋校的双语教学带来很大的便利,而手语识别技术的难点之一在于视频关键帧的提取.根据手语视频关键帧的特点和手语者的手语习惯,提出了一种面向手语识别的视频关键帧提取和优化算法.首先利用卷积自编码器提取视频帧的深度特征,对其进行K-means聚类,在每类视频帧中采用清晰度筛选取出最清晰的视频帧...  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号