首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 187 毫秒
1.
刀具磨损检测的视场范围很小、现场工况复杂(存在机床护罩和刀具保持架的遮挡),而以往对摄像机进行标定的方法多用于大视场环境,并不适合于加工现场的刀具磨损检测。为此,文中提出一种采用非标定双目视觉方法获取刀具磨损图像视差图的方法,无需标定参考物和人工干预。首先,利用SURF(speeded-up robust features)算法检测图像对中的特征点;其次,利用8点算法计算基本矩阵,再利用极点无穷远变换完成图像对的校正;最后,利用基本区域匹配方法完成图像对视差的计算。进行了加工现场的磨损刀具图像获取实验,先对比了重构出的刀具视差图轮廓与实际轮廓,接着分析了刀具视差图的精度。结果显示,重构轮廓与实际轮廓基本相符,重构出的视差图的绝对误差在5个像素点以下,相对误差在10%至30%之间,说明在小视场和复杂工况下,用非标定方法获取的刀具视差图能够满足现场检测的精度要求,并且该方法具有灵活和高效的特点。  相似文献   

2.
针对大视场视频监控系统球形视场畸变严重以及要求实时处理等问题,提出了一种球形视场内局部视角无畸变快速展映方法,实现了大视场条件下运动目标检测的加速。打破现有算法先完成图像畸变校正,后进行目标检测的惯例;仅对球形视场内运动目标所在的局部视角图像进行畸变校正和识别等操作,大大减少了计算数据量,降低图像处理的时间开销,在保证识别准确的前提下,满足了监控系统实时在线处理的要求。最后,对不同分辨率、不同视场角的摄像机进行了多组畸变校正及运动目标检测实验,并将实验结果与现有算法进行了比较。实验结果验证了所提算法对大视场图像采集设备进行无畸变运动目标检测的可行性和高效性(加速5倍以上),为低成本大视场视频监控系统的实时、准确的目标检测、识别奠定了基础。  相似文献   

3.
为获取高分辨大视场的目标图像,提出了双相机系统的高分辨重建算法. 根据小视场高/低分辨图像对,学习图像的高频特征,利用线性回归函数表征图像高分辨与低分辨的高频特征映射关系;在小波域实现低分辨、大视场目标图像的超分辨重建,使其达到高分辨、小视场目标图像的分辨率水平;设计了10组双相机系统的仿真实验,并与双三次插值、小波域插值和学习自身的重建等3种流行算法进行对比. 实验结果表明,本文算法取得了最好的重建效果,时间代价也相对较小,并且重建评价指标PSNR比传统双三次插值高约0.26.   相似文献   

4.
可变视场下的火灾探测算法   总被引:1,自引:1,他引:0  
针对火灾发生初期由火焰面积小、特征不够明显且易受干扰等因素所导致的火焰识别困难的问题,提出一种可变视场下小面积火焰快速探测方法.该方法利用旋转云台实现小面积火焰疑似区域的大监控范围跟踪和视野中央聚焦;通过镜头变焦处理对小面积火焰进行自动放大,提高火焰区域“多分辨”视觉识别特征的显著性;采用自适应区域增长算法对火焰图像进行识别,有效完成火焰疑似区域分割;通过建立的信任度概率模型,将疑似概率作为火焰判定的量化参数,用于火焰区域的最终确定,从而在识别算法和图像获取硬件设备两方面改善火焰探测系统的工作效率.实验结果表明,火焰成像质量得到明显改善,火焰特征识别速度得以明显加快,小火焰检测精度显著提升,可广泛应用于火灾早期以及远距离火焰检测与预警.  相似文献   

5.
为了进一步降低虚假目标车辆的检测风险,提出了一种基于多元特征信息匹配的前方车辆图像识别方法。首先依据路面灰度均值突变搜索车辆候选区域,然后利用双通道Gabor滤波器提取车辆样本图像的多尺度方向特征,联合AdaBoost分类器与Cascade级联分类器形成一系列强分类器,对产生的5尺度8方向高维特征向量实施降维处理,同时分类筛选特征样本,最后结合灰度信息熵对称性测度辨识目标车辆存在性,完成了前方目标车辆的检测定位。研究结果表明:所提方法的检测准确率为96.7%,比经典算法提高了1.6%;整个检测过程最长耗时35 ms,最短耗时15ms,平均耗时25ms,检测耗时主要受车辆的大小以及背景复杂程度的影响;避免了单一特征下局部有效鉴别信息的损失,具有较好的识别精度和处理速度,车辆误检率仅为3.2%,优于其他车辆识别算法的误检率,提高了虚假目标检测的辨识度。  相似文献   

6.
针对复杂场景下的三维点云目标识别速度慢,准确率低的问题,提出了一种基于关键点的点对特征三维目标识别算法. 通过直接对关键点建立点对特征,避免了周围邻域局部曲面的特征计算,具有空间维度小和计算速度快的特点. 使用哈希表存储,加快了特征匹配的时间. 利用快速投票方案对模型点云和场景点云进行匹配识别,生成候选位姿,利用贪婪算法对候选位姿进行聚类与筛选,采用ICP算法对物体位姿进行优化,基于配准后的点云重叠情况完成目标识别. 对提出的算法在多个数据集以及真实场景下进行了实验,验证了所提出的识别方法具有可行性和有效性,且对噪声的鲁棒性较强,具有一定的实际工程应用价值.   相似文献   

7.
传统遥感图像识别算法大多数依据地物的光谱特征,由于红树林这类遥感图像存在大量的"同物异谱"和"异物同谱"的现象,因此仅仅依靠光谱特征很难进行准确的识别。该文充分考虑红树林的地理特征和图像特征,提出了一种多特征融合的稀疏表示识别算法。实验结果表明,该算法能够提高红树林目标检测的效果。  相似文献   

8.
传统的煤矸石图像识别方法存在特征提取困难、泛化能力弱等问题,采用可见光方式进行煤矸石图像采集又容易受光照、粉尘等环境因素的影响,本文提出一种基于热成像技术和深度学习算法的煤矸石图像识别方法,利用热成像技术进行煤矸石图像采集,分别采用AlexNet、LeNet、ResNet_50这三个卷积神经网络构建煤矸石图像识别模型....  相似文献   

9.
针对恶劣成像条件下的机场目标实孔径雷达图像匹配问题,提出了一种基于目标检测识别的定位方法,通过线特征滤波预处理和投影变换检测机场跑道线,进一步用模板匹配识别跑道端点以进行定位.对实际图像试验结果表明该算法能够准确定位灰度相关算法难以正确匹配的强噪声、低对比度实时图像,并且具有参考图制备简单,实时性强的特点.  相似文献   

10.
基于不变矩的前视红外图像机场目标识别   总被引:1,自引:0,他引:1  
根据远距离前视红外图像中机场跑道的成像特点,提出了一种基于仿射不变矩的红外序列图像机场目标识别方法.该方法对图像进行多次双阈值分割,搜索分割图像中各潜在目标区域轮廓链,计算其仿射不变矩和目标背景梯度特征,并利用前后帧目标大小的约束关系等先验知识,对各候选目标区域进行识别,最终获取机场目标.试验结果表明:该算法对复杂背景下的远距离前视机场目标的正确识别率优于96%,误识率低于2%.  相似文献   

11.
为解决传统雷达探测设备面对"低小慢"无人机时产生的难检测与易突防问题,通过深度卷积神经网络对空中无人机进行实时识别,提取目标的类别与像空间位置信息;根据无人机像空间位置在时域下的变化趋势,绘制无人机飞行映射轨迹;利用长短期记忆网络对飞行映射轨迹进行预测,获取无人机在未来时域内的预测航迹方向,实现对无人机的预警跟踪、实时检测与轨迹推断。结果表明,所提出的算法中目标识别平均准确率可达到82%,轨迹预测平均准确率可达到80%计算速度可达到24帧/秒,可见能够在地基计算平台下对空中无人机进行实时精确预警,可以有效地防止识别领空内的非合作无人机渗透与突防。  相似文献   

12.
基于 SIFT 算法的无人机遥感图像拼接技术   总被引:1,自引:0,他引:1  
为了给农田研究人员提供高精度、 宽视野的图像, 在利用 SIFT(Scale-Invariant Feature Transform)算法初 步检测候选点步骤中, 加入自适应阈值去除部分候选特征点; 结合无人机图像的经纬度坐标及重叠区域位置关 系剔除部分无效特征点, 并进行特征点粗匹配; 利用随机采样一致算法消除误匹配点对, 并求解投影变换矩阵 完成相邻两幅农田遥感图像的拼接; 设计了金字塔拼接策略, 完成 128 幅高分辨率图像的拼接。 实验结果表 明, 基于 SIFT 算法, 利用改进的特征点精简方法, 特征点粗匹配时间平均减少了52%, 精匹配时间平均减少了 25%; 基于 6 个图像融合评价参数的对比实验发现, 从定性和定量两个方面, 基于多分辨率的图像融合均优于 其他融合算法。  相似文献   

13.
针对传统目标轮廓识别算法对图像目标轮廓识别精度较低、 效果较差的问题, 提出一种基于深度学习的二值图像目标轮廓识别算法. 首先, 选取深度学习算法中的深度卷积网络算法识别二值图像目标轮廓, 将二值图像划分为不重叠的、 大小相同的子块图像输入深度卷积网络第一层; 其次, 卷积网络中的滤波器(卷积核)采用传统神经网络算法优化的代价函数对输入子块图像实施卷积滤波, 并将卷积滤波后下采样图像发送至第二层, 第二层经过相同处理后将结果输入第三层, 第三层输出图像即为该子块目标轮廓识别结果; 最后, 所有子块识别结束后在输出层通过全连接方法将其聚类, 并输出最终二值图像目标轮廓识别结果. 实验结果表明, 该算法识别15幅二值图像目标轮廓的识别精度平均为98.75%, 信噪比平均为2.42, 识别效果较优.  相似文献   

14.
为提高固定单目垂直摄像方式下人头目标识别的正确率,提出一种新的头部目标区域获取方法。首先给出基于Mean-shift的人头目标分割算法,由于综合考虑了像素点在空间信息和色彩信息的联系,能够较为完整地分割出人头部目标候选区域。在此基础上,基于运动人头区域的轮廓具有近似圆形以及人头发色具有聚类性2个关键特征,提出并建立了基于发色信息的头部区域评价模型和基于连通域边缘轮廓的头部目标评价模型来实现人头部目标区域的识别。实验结果表明,提出的算法能有效抑制光照的影响和消除与发色分布类似的伪目标,静态图像检测正确率约为89.4%。  相似文献   

15.
针对传统目标轮廓识别算法对图像目标轮廓识别精度较低、 效果较差的问题, 提出一种基于深度学习的二值图像目标轮廓识别算法. 首先, 选取深度学习算法中的深度卷积网络算法识别二值图像目标轮廓, 将二值图像划分为不重叠的、 大小相同的子块图像输入深度卷积网络第一层; 其次, 卷积网络中的滤波器(卷积核)采用传统神经网络算法优化的代价函数对输入子块图像实施卷积滤波, 并将卷积滤波后下采样图像发送至第二层, 第二层经过相同处理后将结果输入第三层, 第三层输出图像即为该子块目标轮廓识别结果; 最后, 所有子块识别结束后在输出层通过全连接方法将其聚类, 并输出最终二值图像目标轮廓识别结果. 实验结果表明, 该算法识别15幅二值图像目标轮廓的识别精度平均为98.75%, 信噪比平均为2.42, 识别效果较优.  相似文献   

16.
提出一种基于特征与外貌混合检测确定人眼区域的实时人眼检测方法. 首先,依据可见光源在人眼角膜上反射形成耀点特性,通过图像处理算法提取潜在耀点位置,利用人眼几何特征的确定可能人眼候补区域;然后,提取人眼数据库中具有不同外貌特征的200幅人眼图像,采用FastICA算法估计出提取人眼图像的有效成分分析(ICA)基向量;最后,通过计算人眼候选区域在基向量上投影角度判断出左、右人眼区域准确位置. 实验结果表明,在人脸面部旋转、佩戴眼镜、大范围头部运动和不同光照强度下,实时人眼检测具有较高的检测正确率和较好的鲁棒性.   相似文献   

17.
针对当前无人机目标图像检测方法精度较低和检测速度过慢的问题,提出一种结合轻量级网络和改进多尺度结构的目标检测算法。首先采用MobileNetV3轻量级网络替换YOLOv4的主干网络,减少模型复杂度,提升检测速度;其次,引入改进多尺度结构的PANet网络,增强高维图像特征和低维定位特征的流动叠加,提升对小目标的分类和定位精度;最后,利用K means方法对目标锚框进行参数优化,提升检测效率。同时结合公开数据集和自主拍摄方式构建一个新的无人机目标图像数据集Drone dataset,并基于数据增强的方法开展算法性能实验。实验结果表明,该算法的mAP达到了91.58%,FPS达到了55帧/s,参数量为44.39 M仅是YOLOv4算法的1/6,优于主流的SSD、YOLO系列算法和Faster R CNN算法,实现了对多尺度无人机目标的快速检测。  相似文献   

18.
针对自然场景中交通标志识别问题涉及的识别准确率和实时性改善需求,提出了一种改进的基于多尺度卷积神经网络(CNN)的交通标志识别算法.首先,通过图像增强方法比选实验,采用限制对比度自适应直方图均衡化方法作为图像预处理方法,以改善图像质量.然后,提出一种多尺度CNN模型,用于提取交通标志图像的全局特征和局部特征.进而,将组合后的多尺度特征送入全连接SoftMax分类器,实现交通标志识别.采用德国交通标志基准数据库(GTSRB)测试了所提算法的有效性,测试结果表明,算法在GTSRB基准数据集上获得98.82%的识别准确率以及每幅图像0.1ms的识别速度,本文算法具有一定的先进性.  相似文献   

19.
开发了用于自动导引车辆的数字工位视觉识别系统.根据路面区域、导航线区域和数字工位区域的不同颜色特征,以彩色图像中的R分量(红色分量)为处理对象,利用红色分量在每一副采集图片的像素分布中寻找字符可能出现的区域;根据HIS颜色空间特征参数饱和度S和色调H,提取数字工位;快速校正后,利用字符的整体结构特征进行数字初步分类,优化字符特征区域的确定及统计办法,在改进的特征统计基础上进行数字的再辨识.现场实验表明,该系统可获得较好的识别效果(正确率达到98%),字符提取耗时16 ms,校正、识别总耗时47 ms,满足车辆数字工位识别实时性、准确性、鲁棒性的要求.  相似文献   

20.
为了使小型无人飞行器在执行任务过程中进行全程自动飞行,提出一种基于快速地面定位目标识别,与多目标尺寸视觉测量,使用Intel公司的开源图像处理库OpenCV进行高速实时图像处理,获取飞行器相对高度等信息以辅助引导小型无人飞行器自动降落的方法.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号