首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 15 毫秒
1.
为解决图像低级特征不能够均匀进行显著目标检测的问题,将高层先验语义和低级特征进行结合,提出一种新颖的基于高层先验语义的显著目标检测算法模型。利用深度卷积神经网络对输入图像以及显式显著性先验信息分别进行语义分割提取,得到显式显著性检测图;通过将图像中隐含的先验显著性特征与显著性值进行映射得到训练模型计算隐式显著性图;将显式显著性检测图和隐式显著性检测图进行自适应融合,形成均匀覆盖显著目标像素的精确显著检测图。为验证算法模型的有效性,将算法在具有挑战性的ECSSD和DUT-OMRON图像数据集进行实验仿真,实验结果表明,该算法的显著目标检测效果较其他方法有较为显著的提升。  相似文献   

2.
针对传统的显著性检测算法存在区域亮度不够、显著区域不准确、有背景噪声等问题,提出一种基于凸包计算和颜色特征的显著性检测算法.考虑到图像在不同的颜色空间中颜色取值范围不同,首先,在多种颜色空间经过超像素分割得到区域对比图;然后,在CIELAB颜色空间中得到平滑的通道差值图;其次,利用颜色增强的Harris形成凸包得到中心先验图以及凸包结构图;最后,将4种显著图特征融合并优化得到最终显著图.新算法更加接近人工标注图的结果,不仅能够从背景中分离出显著物体、抑制背景干扰和凸出显著区域,而且获得全分辨率的显著图.在公开的图像数据集上将新算法与其他现有8种显著性检测算法进行对比,实验结果表明,新算法优于其他算法.  相似文献   

3.
基于滑动窗口的遥感图像人造目标检测算法   总被引:1,自引:0,他引:1  
提出一种基于滑动窗口的人造目标检测算法.首先,根据图像的平滑性将整个图像划分为平滑与非平滑图像区域;然后,在非平滑区域随机生成一系列滑动窗口,并融合4种目标特征的度量准则构造一个判别滑动窗口目标性的评分函数,检测算法根据评分函数的取值判别窗口中是否包含人造目标;最后,在人造目标图像集上进行的实验表明:该算法能准确地检测出图像中的人造目标,并具有一定的抗噪声干扰能力.  相似文献   

4.
针对复杂环境下的运动目标跟踪问题,提出了一种基于视觉显著性特征的粒子滤波跟踪算法.该算法利用显著性检测算法对序列图片进行检测,生成视觉显著图,然后利用二阶自回归模型对目标状态进行预测,再根据中心强化-四周弱化的机制,生成最终显著图.利用视觉显著图中目标区域像素值较大的特点,提取视觉显著性特征,与颜色特征进行自适应融合,从而完成跟踪.实验结果表明,该算法能够有效应对跟踪过程中出现的场景光照变化和目标姿态变化等问题,具有较强的鲁棒性.  相似文献   

5.
针对目前基于深度卷积神经网络的目标检测中,高维特征会遗失小区域特征及目标位置信息,从而导致对小目标的识别率很低的问题,提出了一种利用特征层融合进行检测的算法。利用图像插值方法,将高维特征图与低维特征图转化为同样尺寸,通过设置一个网络自学习参数来对各特征图进行有效融合,使得最终进行检测的特征图同时具有丰富的语义信息与尽可能多的目标特征信息。构建了一个简单的卷积神经网络模型,对道路场景中的远距离车辆进行检测,在KITTI数据集上进行测试。测试结果表明:与主流的FasterRCNN和SSD检测框架相比,该模型的检测召回率分别提高了5. 9%和14. 6%。  相似文献   

6.
针对多尺度目标检测中特征图特征混淆和特征丰富程度不足的问题,提出一种基于多尺度特征选择与融合的目标检测算法。设计了一个特征选择模块来分离出不相关的特征,并结合特征金字塔网络形成特征选择网络结构,降低特征图中不同尺度目标的局部特征对当前尺度特征的干扰;提出一种浅层特征融合方法,将浅层特征逐级融合到较深层级特征中,解决特征图的特征不够丰富问题。结合特征选择架构和浅层特征融合架构,在PASCAL-VOC2007数据集上进行测试,结果mAP达到了80.1%。相较于基础的单阶段目标检测(single shot detection, SSD),所提算法的网络性能可提高2.9%,且在一些小目标和遮挡目标的检测效果上有明显的提升。通过对比和消融实验,证明了所提方法的有效性。  相似文献   

7.
针对目标跟踪中的遮挡问题,提出一种基于局部显著特征区域和概率图模型的跟踪算法.提取目标的一组局部显著特征点,以局部显著特征点为依据,在目标区域中划分出多个感兴趣的显著特征区域;利用这组显著特征区域相互之间的空间位置关系,并结合各个显著特征区域自身的局部信息建立目标的马尔可夫随机场(MRF)模型;采用mean shift(MS)算法对各个显著特征区域分别进行跟踪,利用MRF模型对MS算法的跟踪结果进行概率推断,融合各个显著特征区域的权重,精确定位运动目标的最终位置.在多个视频序列上的实验结果表明,与改进的MS算法、粒子滤波算法以及分块跟踪方法相比,此算法具有较高的跟踪精度;尤其是当目标被遮挡时,该算法具有较好的跟踪鲁棒性.该算法充分利用了显著特征区域自身的局部特征和区域之间的空间结构信息,能够实现复杂情况下的运动目标的鲁棒跟踪.  相似文献   

8.
显著目标检测得到越来越多的关注与研究,但用于显著目标检测的场景图像中有时并不包含任何显著目标,故由这些图像提取的显著图中只会产生虚假的显著目标,从而影响后续的处理。针对这一问题提出一种图像显著目标存在性检测方法,该方法基于中心周边直方图计算出的显著图,提取目标区域与图像中心点距离、目标区域位置分布方差、目标区域在图像边缘的分布、目标区域分布熵、图像显著图的直方图等5种特征进行分类,并利用投票的方式最终确定输入图片是否包含显著目标。基于微软亚洲多媒体图像数据库和网络图像数据库验证了本文算法的有效性,实验表明该方法的检测效果优于现有方法。  相似文献   

9.
目前的视觉注意显著区域检测算法,主要依赖像素间的相互对比,缺乏从全局角度对显著目标的分析理解。依据显著目标是显眼、紧凑和完整的思路,提出一种基于目标空间分布特性和局部复杂度的无监督视觉注意显著目标自动提取算法。首先根据局部区域与其多个尺度邻域的对比,得到亮度显著图;然后利用颜色信息的显眼性、空间分布和区域一致性得到颜色显著图;同时通过对方向的空间分布和局部复杂度进行多尺度分析得到方向显著图;最后通过显著值的空间分布和面积增强因子相结合的融合策略得到输入图像的显著图,根据显著区域确定感兴趣区域位置,在基础上完成目标检测。将此方法应用于各类具有不同特点的彩色图像进行仿真实验,得到较好的检测结果,表明该算法是切实可行。  相似文献   

10.
针对深度学习算法检测钢材表面缺陷时,结构信息减少导致检测精度低的问题,提出一种特征融合和级联检测网络的Faster R-CNN钢材表面缺陷检测算法。首先利用主干网络提取特征图,通过融合特征图的方式,达到减少结构信息丢失的目的;进一步将生成的特征图输入RPN网络生成区域建议框;最后利用检测网络对区域建议框进行分类与回归,通过级联2个检测网络,实现精确检测结果的目标。对模型进行对比性实验分析,找出检测精度最优的算法模型。在NEU-DET数据集上对提出的算法进行了检验,主干网络采用VGG-16比采用Resnet-50的检测精度提高了2.40%;通过融合特征,检测精度提高了11.86%;通过检测网络的级联,检测精度提高了2.37%.通过对算法模型的不断改进和优化,检测精度达到了98.29%.与传统的钢材表面检测方法相比,改进算法能够更准确地检测出钢材表面缺陷的种类和位置,提升对钢材表面缺陷的检测精度。  相似文献   

11.
提出了一种基于点监督的弱监督显著目标检测方法,设计了一种自适应的掩膜洪水填充算法来生成伪标签,并利用了一个基于变换器的点监督显著性检测模型来生成第1轮的显著图。然而,由于标签的稀疏性,弱监督检测模型往往退化为通用的前景检测模型。为了解决这个问题,进一步提出了一种利用非显著抑制方法修正第1轮中生成的显著图,并利用它们进行第2轮微调。实验结果表明,在ECSSD和PASCAL-S数据集上分别取得了0.035 8和0.064 7的MAE,验证了该方法的有效性。  相似文献   

12.
针对视觉选择性注意机制中,在凸显注意力目标的同时还需抑制背景区域对显著性目标影响的问题,提出一种基于矩阵低秩分解的图像显著目标检测算法.该算法首先结合图像CIE Lab颜色空间对比度特征和图像纹理特征快速获取初始显著图,然后分别从全局和局部两个层次对其低秩分解并加权融合,最终实现对初始显著图中背景非显著信息的抑制得到最终显著图.与其他显著性算法的对比实验结果表明,本文算法在有效检测显著目标的同时,显著图中的背景仅含有少量非显著信息,显著目标更加凸显,为后期计算机视觉任务提供了一种良好的预处理过程,具有一定的理论和实际应用价值.  相似文献   

13.
结合显著区域检测技术和GrabCut算法,提出了一种新的图像分割方法.首先,计算融合中心知识和目标紧致度的多尺度区域对比度,通过Harris特征信息和贝叶斯模型进一步提高显著性,得到更加精确的前景检测模型;然后,对显著图进行分割获得目标的粗略位置,将位置信息用于GrabCut算法初始化,并在GrabCut初始化建模中引入显著值权重;最后,结合形态学运算改进分割的目标.实验结果表明:该方法能够实现自动分割,并且取得了接近甚至优于一些GrabCut方法的结果.  相似文献   

14.
基于特征对比度的显著性检测方法在处理复杂背景图像时,容易将对比度较高的背景区域误判为目标,导致分割结果不准确.为解决上述问题,提出了一种基于改进凸包和全局颜色对比度的彩色图像分割方法.首先以超像素为基本计算单元,根据图像颜色及其空间分布,计算基于颜色对比度的基本显著图;然后利用颜色增强Harris角点得到目标的凸包,并利用FH方法生成的超像素对凸包进行修正,以此为基础计算基于改进凸包的中心显著图;最后将上述2个显著图进行加权融合得到最终显著图,并使用大津法得到图像中的目标.通过在MSRA1000和ECSSD数据集上进行实验,结果表明本文算法相较于其他算法在可视效果和准确率、召回率等评价指标方面有明显的优势.  相似文献   

15.
现有深度学习目标检测算法往往只利用了卷积神经网络(convolutional neural network,CNN)提取的深层特征进行判别,对浅层特征利用不足。为了利用浅层的细节信息来提高最终所提取的特征层信息的丰富性,提出了一种基于区域生成网络(region proposal network,RPN)结构的多层特征融合目标检测算法,该算法通过深度卷积网络获取不同层次的特征,并将浅层特征与深层次特征进行融合来获得更加丰富的提取特征,以提升检测模型的性能。以Image Net上的公开数据voc2007为实验对象,以Faster RCNN为基础的检测框架进行改进,最终改进后的平均精度均值(mean average precision,mAP)相比于Faster RCNN有所提升,表明研究结果提升了目标检测模型的准确度。  相似文献   

16.
针对当前显著性检测算法普遍存在的背景噪声较多,目标区域检测不够完整等问题,提出了一种空间域的显著性算法.首先将输入图像进行超像素分割,以边缘信息作为背景先验区域集,通过计算超像素与背景先验区域集内超像素在颜色、亮度方面的差异,得到背景差异显著图;然后确定前景先验区域集,计算各超像素与前景先验区域集内超像素的差异性,得到前景差异显著图.最后融合两部分显著图;最后在此基础上构建视觉中心,围绕视觉中心确定各超像素空间权重信息,得到最终显著图.采用MSRA-1000数据库进行对照实验,结果表明本文算法的准确性更高,整体效果更好.  相似文献   

17.
针对当前智能车辆目标检测时缺乏多传感器目标区域特征融合问题,提出了一种基于多模态信息融合的三维目标检测方法. 利用图像视图、激光雷达点云鸟瞰图作为输入,通过改进AVOD深度学习网络算法,对目标检测进行优化;加入多视角联合损失函数,防止网络图像分支退化. 提出图像与激光雷达点云双视角互投影融合方法,强化数据空间关联,进行特征融合. 实验结果表明,改进后的AVOD-MPF网络在保留AVOD网络对车辆目标检测优势的同时,提高了对小尺度目标的检测精度,实现了特征级和决策级融合的三维目标检测.   相似文献   

18.
针对目前流行的显著性检测算法不能精确反映显著性信息的问题,提出一种基于超像素融合方法的显著性检测算法. 首先对图像进行超像素分割,在保证高质量的图像目标边缘信息前提下,建立以超像素为节点的图模型;然后计算超像素邻接矩阵,将该图模型转化为最小生成树模型. 通过OTSU算法自适应地确定最佳阈值,根据该阈值将最小生成树模型的部分节点进行融合,获得大超像素分割区域;最后利用大超像素的颜色和相互距离信息,获得高质量的显著性图. 实验结果表明,相对于其他检测方法,该算法可以更有效地检测出图像中的显著目标,并能达到接近分割的效果.   相似文献   

19.
将人脑视觉注意机制应用于人脸图像分割与跟踪中,提出了一种基于视觉显著特征的人脸目标分割与跟踪算法.该方法由三步完成:首先通过模拟人脑视觉注意机制迅速而准确地利用颜色、结构、梯度和位置等信息建立人脸显著特征图.其次,基于建立的视觉显著特征图,对人脸图像视觉显著特征进行学习和聚类,最终能够快速而准确地确认和分割出图像中的人脸区域.该方法突破了传统的逐点搜索的限制,通过一个几何模型和眼图模型对图像中的人脸区域进行搜索,大大提高了人脸候选区域搜索标记的效率,减少了后续处理工作.最后,通过分割出的人脸区域得到一个有效的边界特征图,并融合人脸显著特征图对人脸进行跟踪.实验结果表明本论文所提出的基于视觉显著特征的人脸图像分割与跟踪方法能够较有效地分割出人脸.  相似文献   

20.
针对仅基于单一传感器的目标检测算法存在检测精度不足及基于图像与激光雷达的多传感器融合算法检测速度较慢等问题,提出一种基于激光雷达与毫米波雷达融合的车辆目标检测算法,该算法充分利用激光雷达点云的深度信息和毫米波雷达输出确定目标的优势,采用量纲一化方法对点云做预处理并利用处理后的点云生成特征图,融合毫米波雷达数据生成感兴趣...  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号