首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到18条相似文献,搜索用时 140 毫秒
1.
结合对比特性与局部清晰特性的图像显著区域检测   总被引:1,自引:1,他引:0  
为了有效地确定图像中的重要区域,文中根据人眼视觉关注中自上而下和自下而上的两种特点,提出了一种结合图像对比特性与清晰区域的显著检测方法. 图像中颜色的全局和局部对比引起低级视觉关注,而图像的清晰部分通常对应于拍摄时所关注的对象,反映高级视觉特性. 采用颜色分类和检测图像细节区域的方法分别提取了两类显著图,并将它们组合起来. 实验结果表明,通过综合考虑两种视觉特性得到的显著图,对多类图像都能较好地检测出与人眼视觉关注相吻合的区域.  相似文献   

2.
针对场景图像的细粒度分类任务,结合图像视觉和文本的多模态信息提出了一种基于注意力网络推理图的细粒度图像分类方法.首先提取场景图像的全局视觉特征、局部视觉特征和文本特征,把位置信息分别嵌入局部视觉特征和文本特征后拼接成新的特征,再将这个新的特征作为图结构的节点生成一个异构图;然后设计两条元路径将异构图分解成两个同构图,并...  相似文献   

3.
在指数矩定义与计算方法的基础上,提出应用指数矩矩阵描述高分辨率图像的方法.结合图像分割理论并延伸处理各子图,利用快速傅里叶变换计算高分辨率图像指数矩矩阵,然后逆向重构子图并重组原图.对重组图像进行基于Itti视觉注意模型的客观感兴趣区域信噪比分析.仿真结果表明,延伸处理可减弱由分割所带来的重组图像方块效应,也可提高重构图像的信噪比,验证了由图像指数矩矩阵描述高分辨率图像的可行性.  相似文献   

4.
深度学习促进了自然语言处理技术的发展,基于文本生成的信息隐藏方法表现出了巨大的潜力.为此,提出了一种基于神经机器翻译的文本信息隐藏方法,在翻译文本生成过程中进行信息嵌入.神经机器翻译模型使用集束搜索(Beam Search)解码器,在翻译过程中通过Beam Search得到目标语言序列各位置上的候选单词集合,并将候选单词依据概率排序进行编码;然后在解码输出目标语言文本的过程中,根据秘密信息的二进制比特流选择对应编码的候选单词,实现以单词为单位的信息嵌入.实验结果表明,与已有的基于机器翻译的文本信息隐藏方法相比,该方法在隐藏容量方面明显提升,并且具有良好的抗隐写检测性和安全性.  相似文献   

5.
针对SAR图像中显著性目标检测问题,提出一种基于多尺度自卷积方差显著性的自适应检测算法. 该算法在对SAR图像多尺度自卷积运算基础上,通过计算MSAV得到方差显著图. 设计了一种自适应阈值检测器,完成SAR图像中显著性目标的检测. 实验结果表明,在复杂背景环境下,所提算法能有效检测出与人类视觉较为一致的显著性目标.  相似文献   

6.
针对体育视频中多尺度运动员的检测问题,提出一种基于卷积神经网络的自动检测方法.首先,从视频帧中获得运动员图像,并结合非运动员图像构建训练集,利用Bootstrapping算法来训练卷积神经网络分类器.然后,对于输入的图像帧,通过二次采样构建不同尺度的图像金字塔,并通过卷积神经网络检测出多个候选运动员位置.最后,计算这些候选运动员的重心,获得一个具有代表性的候选运动员,再通过一个局部搜索过程来确定最终的运动员位置.实验结果表明,该方案具有较高的检测率和较低的误报率.  相似文献   

7.
结合上下文特征和图割算法的车载点云聚类方法   总被引:1,自引:1,他引:0  
可靠、准确的点云聚类是后续高精度场景目标分析与解译的基础.该文提出了一种基于上下文特征和图割算法的车载点云聚类方法.首先用DBSCAN (density-based spatial clustering of applications with noise)对点云数据进行过分割,得到密度可达的超体素;然后引入空间和属性上下文特征来描述超体素间的关联,并用于定义超体素构建的图模型边的权值;最后基于多标记的图割优化算法得到最佳超体素聚簇.实验结果表明,该方法能够有效改善点云聚类过分割,从而提高聚类的精度.  相似文献   

8.
由于复杂掌纹纹线存在难以分割和有效性较低的问题,该文采用小波多分辨率分析方法构建掌纹分割算法,算法首先利用小波多分辨率对高频子图的候选子区域进行分析,将获得的相似掌纹纹线集合加以合并,并对合并相似区域的集合和二值化集合求交集得到融合图像,最后利用区域生长法和形态学去噪获得掌纹主要纹理特征.  相似文献   

9.
景观尺度土地利用生态风险评价指标体系的构建   总被引:2,自引:0,他引:2  
指标体系构建是生态风险评价的核心内容.由于区域土地利用生态风险评价指标体系的构建方法不同,对同一区域采用不同方法评价的结果有较大差异.以区域土地利用生态风险为切入点,借助景观生态学的尺度分析优势及多学科知识的综合,将景观尺度作为生态系统与区域之间相对独立的中间尺度,运用尺度推绎和指标敏感性分析等方法,筛选并构建景观尺度...  相似文献   

10.
在智能视频监控场景下,由于摄像机视角、光照条件、姿态的不同,同一行人在不同场景下的外貌出现巨大差异。本文结合深度学习、视觉注意机制、稀疏表示等领域的理论与方法,重点研究视频的视觉特征表示和选择算法以及显著性多特征的融合方法,实现视频数据中视觉特征的多层次、多尺度提取,形成稳定、可靠的视频行人数据处理方法。  相似文献   

11.
提出了利用小波神经网络提取图像中文本信息的新颖方法.原图像经过离散小波变换分解成4个子频带,文本区域的高频子频带与非文本区域的不同,所以可利用其差异计算出3个特征值作为人工神经网络的输入值,然后用基于BP算法构建的人工神经网络来训练待测的文本区域.文本区域的人工神经网络输出值不同于非文本区域的输出值,因此可利用一阈值来判定其是否为文本区域.最后,将可检测的文本区域经过扩张运算后便可得到正确的文本区域.  相似文献   

12.
针对传统边缘检测算法不能准确检测有噪工业CT图像边缘的问题,提出一种鲁棒性好、能有效保持细小边缘的边缘检测算法.用引导滤波取代高斯滤波作为边缘检测的预处理,避免Canny算法对边缘的损坏,得到初步检测结果.在此基础上采用非下采样Shearlet变换分解图像,提取包含图像边缘细节信息的各尺度不同方向的高频系数.对每个方向的系数进行模极大值检测,并结合不同分解程度下边缘像素处的系数关系进一步调整模极大值,低频置零并通过反变换得到高频边缘检测结果.将初步检测结果与高频检测结果进行融合,经数学形态学处理得到最终边缘检测图像.实验对比了Canny算子以及近年来提出的同类边缘检测算法的结果,所提算法表现出更好的边缘保持特性,检测的完整性和准确性更高,品质因数比实验中的其他算法平均高出12%,边缘检测效果优越,为工业CT无损检测系统提供了更好的边缘检测方案.  相似文献   

13.
当目标码率较低时,在编码视频序列中周期性地插入I帧,会导致重建视频播放时出现“闪烁”现象. 为提高I帧重建质量,抑制“闪烁”,提出了一种基于URQ模型的I帧码率控制算法. 首先根据图像的运动趋势和复杂度将I帧划分为运动区域、图像复杂区域和平坦区域;然后依据人眼视觉系统对不同区域“闪烁”的敏感性,为视觉敏感区域分配更多的码率,其他区域分配较少码率;最后,利用URQ模型计算编码所需的量化参数值,实现对I帧的码率控制. 实验结果表明,所提算法能够在保证码率控制精度的前提下,有效抑制由于周期性插入I帧导致的视频“闪烁”现象,提高重建视频的整体主客观质量.  相似文献   

14.
提出了一种从灰度图像中自主检测陨石坑的方法. 通过Census变换对原始图像块进行转换,用获得的图像灰度直方图作为特征向量. 利用主分量分析对特征空间进行压缩,消除直方图冗余,并利用支持向量机构建模式分类器. 最后对连续缩放陨石坑候选区域不同尺寸的陨石坑区域进行检测. 相关实验表明,该方法可有效检测出尺寸大于20×20 的陨石坑区域.  相似文献   

15.
Chan-Vese模型下的复合多相水平集图像分割   总被引:1,自引:0,他引:1  
Chan-Vese模型(C-V模型)能够实现图像的二区域分割,但在多区域分割上存在局限. 目前解决C-V模型多区域分割问题有两种方案:一是采用多水平集同时收敛的并行多相分割;另一种是采用多水平集依次收敛的串行多相分割. 文中将两种方案结合起来,利用并行多相算法表示区域量大和串行多相算法分割效率高的特点,提出基于C-V模型的复合多相水平集分割算法,增加了串行结构下的分割区域量,也提高了并行结构下各水平集的实际分割效率. 实验结果表明,该方法可实现多区域分割,并能检测由弱边缘构成的子目标.  相似文献   

16.
提出了一种基于Pre-LN Transformer的静态多模态情感分类模型.该模型首先利用Pre-LN Transformer结构中的编码器提取评论文本中的语义特征,其中编码器的多头自注意力机制允许模型在不同的子空间内学到相关情感信息.然后根据ResNet提取评论的图像特征,在特征水平融合的基础上通过视觉方面注意力机制...  相似文献   

17.
KNN算法是一种应用广泛的人工智能算法,在文本分类应用中,简单有效,易于实现.但是,KNN分类的时间复杂度与训练样本数量成正比,而且,训练样本分布密度的不均匀性将导致分类准确性的下降.本文在KNN算法的基础上,提出一种改进算法.算法分析了训练样本的分布密度,通过裁减高密度区域训练样本,降低样本数量,调节训练样本分布,达到提高分类准确性的目的.实验证明,基于密度的改进KNN文本分类算法在降低时间复杂度的同时,还具有较好的准确率和召回率.  相似文献   

18.
介绍一种基于bag-of-words(BOW)模型的无载体信息隐藏方法。该方法使用BOW模型提取图像的视觉关键词(visual words,VW)以表达待隐藏的文本信息,从而实现文本信息在图像中的隐藏。首先使用BOW模型提取图像集中每幅图像的VW,构建文本信息的关键词和VW的映射关系库;然后把每幅图像分为若干子图像,统计每一幅子图像的VW频数直方图,选择频数最高的VW表示该子图像;最后根据构建的文本关键词和子图像VW的映射关系库,搜索出与待隐藏文本信息存在映射关系的子图像序列,将含有这些子图像的图像作为含密图像进行传递。实验结果和分析表明,该隐藏算法在抗隐写分析、鲁棒性和安全性方面均有良好的表现。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号