首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 46 毫秒
1.
接触式火灾探测器在大空间和室外场景存在局限性,结合视频监控系统和数字图像处理技术,进行探测和预警成为火灾探测领域里的新研究方向。针对不同场景下烟雾识别算法的选择问题,研究颜色统计特征和小波变换两种方法在烟雾图像识别中的应用,分析算法的具体过程及其适用性。火灾烟雾图像包含丰富的颜色、纹理等特征参数,将烟雾图像转换为二值图像,采用数字图像处理的方法对烟雾的RGB颜色特征进行统计,分析其颜色距离与人类视觉的关系,提取图像中的烟雾点特征,识别是否有火灾烟雾生成以达到预警的目的。小波变换方法利用烟雾背景图像纹理模糊即信号衰弱的特点,对目标前景进行提取。利用连续目标图像计算均值背景,通过与均值背景的对比,捕捉图像信号衰减的连通区域,获取烟雾图像。通过实验,从图像要求、烟雾对象、时间复杂度、适合场所几方面得出颜色统计特征和小波变换方法在火灾烟雾识别中的性能比较。结果对不同场景下烟雾图像识别方法的选择有指导作用。  相似文献   

2.
为了提高动态纹理特征分析的可靠性且降低计算量,提出了一种基于多维动态纹理分析的烟雾检测算法。该算法在预处理阶段利用ICA烟雾前景初步分离烟雾模型得到初步烟雾前景,然后通过GBVS提取多通道、多尺度的底层特征得到烟雾前景显著区域,以提高前景目标检测阶段对烟雾前景的分割精确度;在烟雾特征提取阶段,提出基于多维特征分析的烟雾特征提取检测方法(h-LDS/RGBH),该方法首先经过烟雾颜色和背景差分预处理得到烟雾候选区域,然后在四维图像块中引入RGB和HOG特征,最后基于对多维图像数据的高阶分解,分析烟雾视频的动态特征。多维动态纹理分析(h-LDS/RGBH)改善了烟雾特征提取阶段所提取的烟雾特征稳定性不高且对烟雾的判断准则过于简单的缺点,提高了动态纹理特征分析的可靠性。实验表明,其检测率高于LDS和h-LDS/RGB的识别率。实验表明,该算法的检测率高于LDS和h-LDS/GRB.  相似文献   

3.
该文提出一种基于码本模型和多特征融合的火灾烟雾检测算法。主要步骤是:首先,利用码本模型提取出视频中运动的前景像素;然后,结合暗通道先验知识对前景像素进行过滤,消除部分干扰像素;最后,统计疑似烟雾区域的颜色直方图、纹理直方图和边缘方向直方图特征,利用多特征融合的方式加以分类识别。多个视频场景测试结果表明,该算法具有良好的烟雾检测能力和抗干扰能力,可以基本满足实时性的要求,具有一定的实际推广价值。  相似文献   

4.
近年来,人工智能技术和计算机视觉技术迅速发展。基于卷积神经网络(CNN)的深度学习在图像分类、目标检测、人脸识别、语义分割等计算机视觉领域取得了成功的应用。与传统的计算机视觉方法相比,深度学习算法避免了人工的复杂度,可以从大量的图像数据集中学习复杂的表示。提出了一种新的基于深度信念网络的烟雾检测方法。首先采用背景差分检测法提取高运动区域。在第二阶段,从RGB及亮度中提取烟雾像素。从不同的前景区域提取了改进型的局部二值模式,不仅获得烟雾的纹理特征,而且利用色调饱和值颜色空间计算了烟雾的强度和颜色。最后,采用改进深度信念网络进行分类。实验表明提出的方法具有较高的准确性和较好的鲁棒性。  相似文献   

5.
为了解决现有图像边缘提取算法对于局部区域特征提取效果不佳不清晰的问题,提出一种模糊局部二值模式Gabor边缘检测算法(fuzzy local binary-Gabor).该方法首先利用Gabor小波对图像进行第一次处理,降低图像中由于光照变化和噪声对图像产生的影响,再用模糊局部二值算法(模糊数学与局部二值法的结合)将处理过的特征图片进行第二次处理得到相应的轮廓提取特征图.结果证明,该算法确实对目标区域有较好的检测率,得出该算法对于图片轮廓的提取确实有很好的效果.  相似文献   

6.
针对基于图像的火灾识别方法易受干扰、误报率高等问题,提出一种基于烟雾特征融合的火灾识别方法。该方法根据火灾烟雾独特的纹理和边缘梯度特征,利用HSV颜色空间进行颜色特征提取,得到疑似烟雾区域;通过等价局部二值模式(ULBP)及方向梯度直方图(HOG)提取烟雾纹理和边缘梯度,得到特征向量,再将特征向量输入线性支持向量机(LinearSVC)进行测试和烟雾识别。研究结果表明,算法抗干扰性强,检测率高,为快速准确的火灾预警提供了算法依据。  相似文献   

7.
针对自然场景中复杂的背景纹理对文本区域检测的干扰,提出了一种改进型局部二值模式(ULBP)提取算法,用于维吾尔文文本特征提取,并用获得的特征向量对候选维吾尔文本区域进行分类。本算法首先利用同质化映射来构建图像的同质化空间;然后,在同质化空间利用角点检测快速获取候选文本区域;最后,在候选文本区域里提取ULBP特征,把这些特征导入训练后的支持向量机(SVM)即可获得精确的文本区域。实验结果表明:ULBP特征对维吾尔文本区域具有较高的区分度,且能使误检率降低到8.3%,鲁棒性较强。  相似文献   

8.
利用随机森林算法,提出了一种基于随机森林特征选择的视频烟雾检测方法.首先,提取四种表征烟雾的特征:RGB颜色特征,小波变换高频子图,多尺度局部最大饱和度,多尺度暗通道;其次,根据烟雾图像信息模型利用无烟图片合成烟雾图片并分块得到随机森林训练样本;第三,训练随机森林进行特征选择并通过训练支持向量机得到识别烟雾块和非烟雾块的分类器,并由此得到视频图像帧的疑似烟雾区域;最后通过视频烟雾区域的凸形度和增长率分析,得到烟雾检测的结果。实验结果表明,该方法能够及时的预警烟雾同时降低火灾预警的误报率.  相似文献   

9.
基于视频多特征融合的列车车厢烟雾检测方法   总被引:1,自引:0,他引:1  
列车车厢中环境相对复杂且遮挡物较多,为了提高视频烟雾检测的准确性,剔除场景中疑似烟雾的干扰物,降低由于环境中光照变化导致的误检情况,提出了基于运动、颜色及衰减等多特征融合的烟雾检测算法.该算法能有效克服背景复杂、光照变化大,以及阴影问题带来的干扰.算法主要由3部分构成:烟雾运动检测、颜色特征分析提取和多特征融合.该算法通过背景建模方法分割出运动的区域,引入归一化RGB空间烟雾颜色基础模型及衰减模型,以剔除疑似烟雾区域的干扰,同时可以有效地降低光照影响.  相似文献   

10.
针对视频分割中的阴影消除问题,提出了一种以置信度为桥梁,前景边缘投影特征与局部纹理特性相融合的阴影提取算法.采用自适应高斯法获得动态背景,提取包含阴影的前景,计算出当前帧和背景帧在前景最小外接矩形坐标范围内的边缘差异,得到低干扰的车辆和阴影边缘信息.利用大津阈值算法进行投影分割,在阴影连续性前提下,高置信度区域确认为阴影,低置信度区域确认为车辆,而一般置信度区域,进一步结合局部纹理在当前帧和背景帧间的跳变程度,搜索出与车辆相连的阴影.结果表明:该方法能够去除导致前景严重变形的大面积阴影,去除有效率在90%以上,保障了车辆的有效提取;算法实时性好,可应用于智能视频监控的目标检测及跟踪中.  相似文献   

11.
针对现有火焰前景提取算法提取前景不完整、轮廓失真严重、对复杂环境适应性差等问题,提出一种采用机器学习的火焰前景提取算法。该算法结合使用监督学习方法和无监督学习方法,训练了两级专用的分类器用于确定疑似目标区域;根据Real AdaBoost分类器的输出结果计算聚类算法的初始中心,并使用计算出的聚类中心对目标区域进行聚类分割,以得到最终的前景区域。实验结果表明:该算法对强光环境、夜间环境、静态或动态干扰环境等复杂场景均具有较好的适应性,得到的前景提取误差率在2%~28%之间,低于现有其他算法,且帧运算耗时小于50ms,能够很好地完成多种场景下的火焰前景提取工作,为图像型火灾检测系统中后续的特征提取与识别奠定了基础。  相似文献   

12.
公共场景监控下的人群人数统计是公共安全管理中的一个重要内容。针对复杂场景监控的情况,本文提出一种融合像素与纹理特征的人群人数统计方法。首先,通过改进的视觉背景提取方法得到高精度的前景目标;然后,提取ROI区域前景像素统计特征与纹理特征并引入阈值判别机制;最后,对阈值上下的图像分别采用基于纹理特征的回归算法和基于像素统计特征的线性拟合算法来得到人群人数。实验结果表明,本文方法相较于传统算法,可以适应于不同密度场景下的人群人数统计,且计算简单,统计精度高。  相似文献   

13.
针对在复杂情景下视频前背景分离技术中存在的前景泄露问题,设计开发了一个端对端的二级级联深度卷积神经网络,实现了对输入视频序列进行精确的前景和背景分离.所提网络由一级前景检测子网络和二级背景重建子网络串联而成.一级网络融合时间和空间信息,其输入包含2个部分:第1个部分是3张连续的彩色RGB视频帧,分别为上一帧、当前帧和下一帧;第2个部分是3张与彩色视频帧相对应的光流图.一级前景检测子网络通过结合2部分输入对视频序列中运动的前景进行精确检测,生成二值化的前景掩膜.该部分网络是一个编码器-解码器网络:编码器采用VGG16的前5个卷积块,用来提取两部分输入的特征图,并在经过每一个卷积层后对两类特征图进行特征融合;解码器由5个反卷积模块构成,通过学习特征空间到图像空间的映射,从而生成当前帧的二值化的前景掩膜.二级网络包含3个部分:编码器、传输层和解码器.二级网络能够利用当前帧和生成的前景掩膜对缺失的背景图像进行高质量的修复重建.实验结果表明,本文所提时空感知级联卷积神经网络在公共数据集上取得了较其他方法更好的结果,能够应对各种复杂场景,具有较强的通用性和泛化能力,且前景检测和背景重建结果显著超越多种现有方法.  相似文献   

14.
为提高低对比度、复杂自然图像显著性检测的准确率和泛化性能,提出一种贝叶斯框架下的全局和局部信息融合的显著性检测模型.首先,构建深度卷积自编码网络,采用对称编解码结构,监督学习图像全局特征,得到全局显著图;然后,根据全局显著图产生前景和背景码本,利用局部约束线性编码算法进行编码,采用稀疏编码描述局部特征,产生局部显著图;最后,提出采用贝叶斯框架,将全局和局部信息融合,生成最终显著图.实验结果表明,所提模型在ECSSD,DUT-OMRON和PASCAL数据集上F-measure值分别为76.53%、59.45%和72.52%,MAE值分别为0.143 28、0.137 87和0.181 05,且能够有效对低对比度、复杂真实自然图像进行显著性检测.  相似文献   

15.
提出了一种基于马尔科夫随机场(MRF)模型与多尺度纹理特征的单幅图像深度信息估计方法,该方法采用了Laws滤波器分别对图像的边缘、梯度、点进行滤波,捕捉二维场景图像中不同尺度的纹理能量以获得深度信息的特征.并根据纹理特征在不同尺度范围的不同值,计算出纹理线索与场景深度间的概率关系,在此基础上,构建MRF概率模型.MRF模型通过分析邻域系统和设计迭代准则很好地描述了纹理特征与场景深度之间的关系,最后通过迭代算法获得二维场景图像的深度信息.实验结果表明,该方法对场景深度信息的提取具有较好的效果,对于二维场景图像的场景结构、空间布局的约束较少,算法鲁棒性好.  相似文献   

16.
为消除前景图像的阴影,提出了一种基于尺度不变局部三元模式(SILTP)的视频图像背景建模算法。该算法利用图像帧级、图像块级和像素级三级信息进行设计.在图像帧级,利用全局灰度均值处理亮度突变;在图像块级,利用SILTP纹理图像基于图像块进行背景建模,快速定位前景目标大致轮廓;在像素级,用类ViBe算法检测前景目标精确边界.实验表明该算法不仅可有效消除前景图像的阴影,对复杂场景亦具有较好适应性.  相似文献   

17.
针对从背景复杂、视角多变、语言形式多样的场景图像中难以准确提取文本信息的问题,提出了一种基于最大稳定极值区域(MSER)和笔画宽度变换(SWT)场景文本提取方法。该方法结合MSER、SWT算法的优点,采用MSER算法的准确检测文字区域,建立文本候选区域,利用SWT算法计算文本候选区域笔画宽度得到候选文本区域的笔画宽度;根据笔画宽度图,利用连通域标记建立笔画宽度连通图,然后根据笔画宽度连通图,建立笔画连通图的启发性规则,删除非文本候选区域,并根据文本的几何特征分析及局部自适应窗口最大类间方差(Otsu)分割,有效提取出自然场景图像中的文本,文本提取的准确率、召回率及综合性能分别为0.74、0.64及0.68。仿真实验结果表明,在文本视角多变,字符大小、尺寸、字体各异的复杂条件下,所提方法具有较好的鲁棒性,适用于多语言和多字体混合的场景文本提取。  相似文献   

18.
基于YC_bC_r颜色空间的背景建模及运动目标检测   总被引:2,自引:0,他引:2  
高斯混合模型广泛应用于基于背景建模的运动目标检测中.首先在YCbCr颜色空间采用自适应高斯混合模型对背景的每个像素建模;然后,对输入的当前帧图像的每一像素值与该像素点对应的高斯混合背景模型的各个高斯模型进行比较,将前景运动区域(包括运动目标、投射阴影)从场景中提取出来;最后,采用局部二元图(Local Binary Pattern,LBP)来提取纹理特征,利用背景在阴影覆盖前后的纹理相似性去除投射阴影,同时结合阴影的空间几何特性优化运动目标检测结果.实验结果表明,该算法能有效地检测出投射阴影和运动目标,具有较高的实际应用价值.  相似文献   

19.
针对经典霍夫车道线检测方法实用性较差,无法准确区分车道线和路沿与应用道路场景简单等问题,提出 了一种基于消失点和颜色过滤器的车道线检测算法,不仅提高车道线检测的准确率,而且能够应用较复杂行车场 景;首先,对行车视频连续五帧图像进行预处理,获取行车环境下车道线消失点位置,能够自适应选取行车环境图 像的感兴趣区域(Region of Interest,ROI);然后,对 ROI 图像根据车道线颜色特征进行过滤得到二值图像,获取二 值图像中所有连通区域质心和倾斜角等数据,通过结合消失点特征和角度阈值进行限制,筛选记录符合车道线特 征连通区域的数据,接着分割较大区域获取更多质心点,识别漏检符合车道线特征的区域质心点;最后,对获取的 质心点使用最小二乘法进行拟合并标识车道线;实验结果表明:算法能够在多场景道路上快速准确的检测出车道线,与经典霍夫算法进行仿真比较,算法具有一定的鲁棒性和实时性。  相似文献   

20.
针对传统贝叶斯模型算法对图像显著区域检测精度需要进一步提高的问题,提出一种改进凸包的贝叶斯模型显著性检测算法。首先,利用流行排序算法对图像进行前景提取,提取的前景区域作为贝叶斯模型的先验概率;其次,利用颜色增强的Harris角点检测算法检测图像在RGB,HSV,CIELab 3个颜色空间中的特征点,分别构造RGB,HSV,CIELab空间的凸包,求取3个颜色空间下的凸包的交集;再次,通过贝叶斯模型根据先验概率、凸包与颜色直方图结合得到的观测似然概率计算获得显著性区域图;最后,将新算法在两大公开数据集MSRA和ECSSD中进行测试。结果表明,新算法能够有效抑制背景噪声,完整检出显著区域,F-measure值在MSRA和ECSSD数据库中的测试结果分别为0.87和0.71,准确率-召回率曲线在复杂图像数据库高于传统经典算法。新算法改进了传统经典算法的检测效果,进一步提高了显著图检测的准确性。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号