首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 349 毫秒
1.
提出了一种基于马尔科夫随机场(MRF)模型与多尺度纹理特征的单幅图像深度信息估计方法,该方法采用了Laws滤波器分别对图像的边缘、梯度、点进行滤波,捕捉二维场景图像中不同尺度的纹理能量以获得深度信息的特征.并根据纹理特征在不同尺度范围的不同值,计算出纹理线索与场景深度间的概率关系,在此基础上,构建MRF概率模型.MRF模型通过分析邻域系统和设计迭代准则很好地描述了纹理特征与场景深度之间的关系,最后通过迭代算法获得二维场景图像的深度信息.实验结果表明,该方法对场景深度信息的提取具有较好的效果,对于二维场景图像的场景结构、空间布局的约束较少,算法鲁棒性好.  相似文献   

2.
公共场景监控下的人群人数统计是公共安全管理中的一个重要内容。针对复杂场景监控的情况,本文提出一种融合像素与纹理特征的人群人数统计方法。首先,通过改进的视觉背景提取方法得到高精度的前景目标;然后,提取ROI区域前景像素统计特征与纹理特征并引入阈值判别机制;最后,对阈值上下的图像分别采用基于纹理特征的回归算法和基于像素统计特征的线性拟合算法来得到人群人数。实验结果表明,本文方法相较于传统算法,可以适应于不同密度场景下的人群人数统计,且计算简单,统计精度高。  相似文献   

3.
视频运动目标跟踪,简单说就是在下一帧图像中锁定感兴趣目标的确切位置。复杂的背景以及目标本身的变化给运动目标跟踪技术带来了很大的困难。现有算法大都在分辨率较高的条件下针对特定场景取得较好的跟踪效果,但针对运动目标尺寸比较小且分辨率较低的目标跟踪算法的研究报道不多,这种情况下通常难以达到精确的跟踪,鲁棒性也比较差。针对这一问题,探讨了一种基于DWT-DCT系数符号特征的运动目标跟踪算法,该算法通过提取这一特征进行特征匹配来定位目标的位置。实验结果表明,该算法不仅具有较强的鲁棒性,而且在低分辨条件下仍能对尺度较小的目标进行精确的跟踪。  相似文献   

4.
本文针对场景分类中存在的目标物以及之间的相互关系错综复杂,图像的拍摄角度、光照强度不同,造成的场景内容难以辨识等问题,提出了一种利用上下文关联信息进行自适应判别的分类算法。通过检测图像中目标物及其相互之间的上下文关系,利用该信息对图像的细节纹理特征进行增强,最后利用支持向量机(SVM)进行训练和测试,从而实现场景分类。在三个公共标准图像集上的测试实验结果表明,都具有较好的分类效果。  相似文献   

5.
针对视频监控系统中,复杂环境引起摄像机抖动,造成运动目标检测不准确的问题,提出了一种基于分区灰度投影稳像的运动目标检测算法.首先对每帧图像进行分区,利用分区灰度投影算法对图像各分区的运动矢量进行准确提取和相关性分析,进行抖动判断,并对抖动帧进行运动补偿.然后利用高斯混合背景建模算法进行运动目标提取.最后对目标提取结果进行形态学处理,以进一步提高目标提取的精度.实验结果表明,本文算法较好地消除了场景中运动目标对运动矢量计算的干扰,实现了在摄像机抖动视频场景中的运动目标的准确检测和提取,大大降低了抖动视频目标检测的虚警率.  相似文献   

6.
为了改进特征学习在提取目标运动方向及运动幅度等方面的能力,提高动作识别精度,提出一种基于光流约束自编码器的动作特征学习算法.该算法是一种基于单层正则化自编码器的无监督特征学习算法,使用神经网络重构视频像素并将对应的运动光流作为正则化项.该神经网络在学习动作外观信息的同时能够编码物体的运动信息,生成联合编码动作特征.在多个标准动作数据集上的实验结果表明,光流约束自编码器能有效提取目标的运动部分,增加动作特征的判别能力,在相同的动作识别框架下该算法超越了经典的单层动作特征学习算法.  相似文献   

7.
基于目标检测的红外和可见光动态图像融合   总被引:6,自引:0,他引:6  
提出一种基于运动目标检测的红外和可见光动态图像融合方法,通过对红外序列图像中的运动目标进行检测,将运动目标信息融合到可见光序列图像中。试验结果表明,文中算法所得到的融合图像能够综合利用红外图像较好的目标指示特性与可见光图像较清晰的场景信息,有利于安全监视人员进行目标识别和情景感知。  相似文献   

8.
针对现有方法难以解决复杂场景图像分类的问题,本文提出一种基于局部语义上下文的场景分类方法。该方法将整个图像分割为一系列超像素,从超像素提取局部特征表示图像的局部观察;在观察图像和场景类别标签之间引入表示超像素区域语义的随机变量,通过不同随机变量之间的依赖关系引入局部语义上下文信息,较好地描述了图像观察、图像内容与场景类别标签之间的语义关联度,最后定义判别图像场景类别的目标函数,采用优化方法推断图像的场景类别。在标准图像库进行的实验证明了该方法的有效性。  相似文献   

9.
高斯混合模型已经广泛应用于视觉图像的运动目标提取.但传统高斯混合模型存在静止前景融入背景的问题.为了解决这个问题,提出了一种特定场景下基于反馈信息的背景模型更新改进算法.首先采用基于形状特征的目标分类器将前景目标识别为行人和车辆,然后通过多目标跟踪判断目标是否静止,进而将前景目标识别为静止行人,运动行人,车辆三种模式,最后将跟踪与分类的结果与高斯模型的更新相结合,根据分类后反馈的信息对不同的分类区域采取不同的学习率更新.实验结果表明,该方法能够有效地解决特定场景中前景融入背景的问题.  相似文献   

10.
提出了一种基于双目立体视觉和SVM算法的行人检测方法.采用行人样本的头肩HOG特征训练分类器,通过双目视觉系统获取待检测目标左右图像,经过摄像机标定和立体匹配之后,计算图像共轭点的视差生成深度图,以基于距离的阈值分割确定运动目标所在的ROIs,有效去除背景信息;提取分割图像的HOG特征,投入SVM分类器训练得到检测子;加载分类器在前景图像中做多尺度检测,标记检测出来的运动目标.实验表明:该方法能对复杂场景下不同尺度和姿态的行人进行有效检测,具有较高的鲁棒性和检测率,且具有很好的实时性.  相似文献   

11.
空地机器人通过相互协作获得的信息互补特性,使其在多智能体协同领域具有显著优势。由于室外场景受地形条件、光照变化等影响,地面机器人凭借自身传感器无法完整获得有效的地面环境特征,因此提出一种室外大范围场景下的地面特征提取方法,可通过获取到的全局环境信息指导地面机器人完成导航任务。利用机载视觉及YOLO-v3目标检测算法对室外场景的目标物进行检测与定位;对于全局场景图像特征的提取,建立点对间映射函数模型,剔除待匹配图像的外点,从而配准场景图像并对其进行拼接,使用加权平均融合淡化拼接缝隙;通过k(聚类中心数)-均值聚类算法分割全景图像,并采用形态学方法滤除噪声,最终获得全局场景特征;在此基础上改进基于采样的路径规划方法,为地面无人车提供一条可行的全局路线。通过仿真实验及室外场景测试表明:地面场景特征提取算法提升了室外大范围场景下所提取到特征的鲁棒性和准确性,改进的路线规划方法进一步缩短了路径长度,可为无人车自主导航提供有效的全局环境信息。  相似文献   

12.
针对夜间交通场景中运动车辆目标提取及实时检测困难的问题,引入改进的Boosting模糊分类算法,提出了一种新的基于车头灯的夜间运动车辆检测方法.通过SIFT算法和融合多特征的方法精确提取夜间运动车辆车头灯特征,利用遗传算法优化Boosting模糊分类算法,并以加权投票方式对提取的车头灯特征进行分类判别,最后结合车头灯空间、运动信息及灯光颜色信息进行同车车头灯配对分组,实现夜间运动车辆的实时检测.实验表明,该方法在夜间交通环境中具有良好的实时检测效果和较高鲁棒性.  相似文献   

13.
合成孔径雷达(synthetic aperture radar,SAR)图像与可见光图像由于成像机理的不同,图像差异较大,传统融合算法不利于地物目标特征的解译与识别,难以满足应用的需求。基于此,文章结合SAR与可见光图像的成像特征,提出了一种基于相位一致性特征检测的自适应HIS(hue-intensity-saturation)融合算法,该算法首先利用相位信息区分目标轮廓和纹理边缘,提取SAR图像的空间特征信息,能有效地避免过量纹理边缘的提取。自适应HIS算法能调节2个图像之间的灰度相关性,实现加入信息的平滑过渡,减少光谱扭曲。实验以哨兵1号C波段SAR图像与Landsat8可见光图像进行验证,并与传统的HIS、主成分分析(principal component analysis,PCA)、小波以及目前较为主流的NSCT(nonsubsampled contourlet)算法进行比较,结果表明:该算法能有效地加入可见光图像不易察觉的特征信息,实现了融合图像在光谱保持和空间结构与特征保持上较好的权衡,提高了图像的地物检测与目标识别的能力。  相似文献   

14.
针对实时场景下复杂背景动态变化的特点,在子空间图像差分模型的基础上,提出了一种基于ICA子空间的目标运动变化检测方法,该算法能够检测出两帧图像之间目标运动变化而不是背景变化部分,克服了目前大多数基于简单差分模型的变化检测算法对图像配准精度要求很高的问题.实验结果表明,这种方法能够准确地提取出实时场景中目标的运动变化区域,并具有很强的鲁棒性.  相似文献   

15.
针对复杂交通场景下密集小目标居多、目标尺寸差异大、目标间遮挡严重的问题,提出了一种基于YOLOv4框架的复杂交通场景下的目标检测算法。首先,构造多尺度特征融合提取模块作为主干网络特征提取模块,充分提取不同尺度目标特征信息,同时引入轻量化Ghost模块对主干网络特征进行维度调整;其次,将卷积模块与自注意力机制融合,构造倒残差自注意力模块应用到主干网络深层,深层网络在充分提取局部特征信息基础上获得了全局感知;然后,构造轻量级混合注意力模块,抑制背景噪声,增强密集小目标检测能力;最后,在Udacity数据集上进行实验,检测精度达到了84.41%,相比较YOLOv4, mAP(mean average precision)提高了3.07%,对1 920×1 200分辨率图像的检测FPS(frames per second)可达到49,提高了22.5%,精度提升的前提下实现了较好的实时性,更适用于复杂交通场景下的目标检测任务。  相似文献   

16.
将视频监控技术应用于交通信息获取与处理,解决行人安全问题,已成为智能交通系统中的一项关键技术。为精准地提取交通场景语义信息,提出了融合时域和空域信息的行人检测算法。通过相邻多帧时域变化和Canny边缘检测算法得到初始检测掩模图像,解决差值局部化和噪声问题;提取空域信息时,引入二次重构和内外标记技术对梯度图像进行修正和分水岭变换,得到空域掩模图像,有效地提高空域分割精度,消除过分割现象;最后将两者结果进行融合和形态学修正,提取出交通场景图像中的运动行人。以北京南站为例进行实验分析,结果表明,该方法能快速准确地检测到较完整的目标信息,在动态场景的行人检测取得了较好的效果。  相似文献   

17.
基于信息融合的运动目标自动提取   总被引:3,自引:0,他引:3  
提出了一种采用主动轮廓模型来融合多种图像信息的运动目标提取算法.通过对含有运动信息的差分图像进行统计分析,可以获得运动目标的粗略位置,从而解决了主动轮廓的启动问题.利用图像中的色彩信息,构建了一种新的色彩力.由于这种色彩力在作用范围、定位精度上与反映目标边缘特征的图像力具有互补性,因此在这两种力的共同作用下,主动轮廓可以有效地解决其初始位置远离目标边缘的难题,并精确地提取目标的真实轮廓.实验表明,这种算法在长达数百帧的图像序列中,始终能准确地分割出运动目标,并稳定跟踪目标的运动.  相似文献   

18.
针对视觉跟踪在复杂背景下因外观特征表征不足等原因造成的目标丢失问题,结合深度光流网络估计的运动特征,文中提出了一种基于时序信息和空间信息自适应融合的视觉跟踪算法。该算法在相关滤波跟踪框架基础上,引入递归全对场变换(RAFT)深度网络估计光流以获取目标的时序信息,提取目标的CN特征和HOG特征获取空间信息,然后融合目标时序信息和空间信息,以增强对目标时空特征的表征能力;其次,建立了一种跟踪结果质量判别机制,实时调整时序信息在融合过程中的权重, 有效提升了算法在复杂动态环境下的泛化能力。为评估算法的有效性,在OTB100和VOT2019两个数据集上进行了测试,实验结果表明,与主流视觉跟踪算法相比,所提算法的跟踪性能获得了显著提升,尤其在运动模糊、快速运动等属性的视频中,具有明显优势。  相似文献   

19.
在复杂场景下进行弱小运动目标的检测过程中,受到视频中有序相邻对象相似性的影响,难以高精度地识别低质量特征的运动目标.设计一种基于概率统计局部聚类的复杂场景弱小运动目标检测方法.建立空域模型、时域模型,分析小目标特征、背景特征以及噪声特征,从中提取弱小运动目标特征,使用概率统计局部聚类理论,拟定划分标准使用条件,实现目标轮廓曲线分段,将弱小运动目标检测流程进行整体优化,完成基于概率统计局部聚类的复杂场景弱小运动目标检测方法的设计.检测方法性能测试结果表明:在不同的实验图像下,设计的弱小运动目标检测方法的检测率平均值为69.8%,具有一定的实用性和可靠性.  相似文献   

20.
杂波环境下基于视听信息融合的目标跟踪   总被引:1,自引:1,他引:0  
以监控系统为研究背景,充分利用场景中视听媒体间存在的天然时空相关性,将视觉信息和听觉信息有效地融合从而实现对目标的快速跟踪.利用机器视觉相关理论提取视觉运动特征,利用计算听觉场景分析技术抽取音频场景特征,建立视听信息特征级融合模型并进行联合场景事件判断.仿真结果表明,应用视听信息融合对目标进行跟踪,预测误差小于单独基于视觉的目标跟踪,同时听觉信息的引入有助于克服图像噪声.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号