首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 10 毫秒
1.
基于区域的网络Faster R-CNN算法在图像的目标检测领域取得了巨大突破.相比较于传统的目标检测方法R-CNN和Fast R-CNN,Faster R-CNN提出了一种候选区域网络(RPN)有效的提升了检测候选框的生成速度.本文通过分析提出的RPN网络的实现方法,引用了K-Means++聚类算法,来对训练数据集中的目标框大小进行聚类分析,替代原本算法中的9个区域框.通过实验对比分析,通过改进的方法提高了车辆检测的精度.  相似文献   

2.
提出一种基于改进Faster R-CNN(region-convolutional neural networks)的车辆识别算法,用于处理不同类别车辆的识别问题.为了解决部分外形相似类别的车辆之间的误检问题,该方法使用空洞卷积来提高感受野,结合空洞空间金字塔池化(atrous spatial pyramid pooling,简称ASPP)来增强多尺度信息的获取,以此来增强网络对外形相似车辆之间差异的敏感性,提升算法的准确率.实验结果表明,改进的Faster R-CNN模型mAP值达到93.45%,具有较高的精确度、较小的误检率和更好的鲁棒性.  相似文献   

3.
为实现杂草精准防控、快速识别棉田杂草,本文基于低空无人机技术拍摄棉田苗期影像,以幼苗和杂草为研究对象,提出了一种改进Faster R-CNN的棉田杂草识别方法。改进1:特征提取网络采用融合FPN的ResNet50代替VGG16来训练模型,并对比VGG16、ResNet50和MobileNetv2的分类效果;改进2:针对Faster R-CNN模型设计适合小目标的锚尺度,其中对应的anchor尺度为{8×8,16×16,32×32},比例为{1∶2,1∶1,2∶1};改进3:训练过程在通过特征提取阶段后,采用双线性插值操作,避免两次量化对物体识别产生的影响;改进4:添加2个Dropout层,分别在特征提取网络之后的2个全连接层上,避免模型产生过拟合现象,增加了网络的鲁棒性。研究表明:融合FPN的ResNet50训练的的平均精确率比VGG16提高了3.82%,与ResNet50和MobileNetv2相比分别高出5.05%和18.38%,说明Faster R-CNN使用融合FPN的ResNet50具有最佳的性能,改进的Faster R-CNN模型对单张图像平均识别时间为0.289 s,平均...  相似文献   

4.
针对传统的车辆检测算法无法自适应地完成在复杂场景变化下提取目标相应特征的现象,提出了一种基于深度学习的车辆检测算法,该算法结合了Faster R-CNN开源框架和Loc Net网络算法。首先,利用RPN算法获得图片中的候选区域,以减少检测过程中对每张图片的计算量;然后,进入Fast R-CNN网络,利用该深度网络中的卷积层和池化层,自适应地获得车辆目标的所有特征;最后,进入Loc Net网络,通过输入已经得到的图片候选区域,通过卷积层和池化层,不断计算候选区域边界的概率,达到不断优化候选区域边界,最后得到车辆目标的边界框。使用深度学习卷积神经网络,可以避免人工设计车辆目标特征适用性不广泛的缺点,提升车辆目标检测和定位的准确性。  相似文献   

5.
针对行人检测中复杂环境,提出一种改进Faster R-CNN的行人检测算法,使用深度卷积网络从图片中提取适合检测目标的特征。基于Faster R-CNN算法,以Soft-NMS算法代替传统NMS算法,加强Faster R-CNN算法对重叠区域的识别能力。同时,算法通过"Hot Anchors"代替均匀采样的锚点避免大量额外计算,提高检测效率。最后,将21分类问题的Faster R-CNN框架,修改成适用于行人检测的2分类检测框架。实验结果表明:改进Faster R-CNN的行人检测算法在VOC 2007行人数据集,检测效率和准确率分别提升33%、2.6%。  相似文献   

6.
针对交通场景复杂、人头尺寸偏小、乘客重叠等因素导致的两轮车辆载人检测经常出现的乘客漏检问题,设计了一种改进的Faster R-CNN检测模型.该模型以GoogLeNet为特征提取网络,修改了区域生成网络中候选框尺寸,采用特征融合策略,使得模型对小目标更加灵敏.针对乘客重叠导致的漏检问题,模型采用柔和的非极大值抑制(So...  相似文献   

7.
为了实现农田残膜的精准捡拾,提高残膜回收机的回收率.将改进Faster R-CNN卷积神经网络运用到农田残膜的识别检测中,提出了一种农田残膜的识别方法.以11MS-1850残膜回收机工作后遗留在农田表面的残膜为研究对象,分别在晴天、阴天不同时间段采集图像共计1648幅.通过更改图像亮度、旋转等方式扩充数据集,最终得到4950幅残膜样本图像,按照7:2:1划分为训练集(3465幅)、验证集(990幅)、测试集(495幅);采用双阈值算法替代传统的单阈值算法,降低了阈值对模型性能的影响;通过对比试验,选取具有残差网络结构的ResNet50作为主干特征提取网络,准确率可达88.84%,召回率为87.70%,总体精度为88.27%;为了使检测模型对小目标更加灵敏,根据数据集中残膜尺寸大小,在原有锚点基础上增加322和642的尺度参数,准确率、召回率、总体精度分别提升了1.29%、0.67%、0.97%,单幅检测时间为284.13 ms,基本满足了识别残膜的要求.可为残膜回收机加装补收装置提供参考,为研制人工智能残膜回收机提供理论基础.  相似文献   

8.
Faster R-CNN是一种比较流行的目标检测方法,由于Faster R-CNN对小目标的识别率较低,对候选区域生成和分类阶段对象大小的变化对网络的性能影响进行了详细的研究。另外,还研究了特征图的分辨率对这些阶段的影响。对于小物体,anchor的选择是非常重要的,引入了一种改进的方案用于生成候选区域建议,提供了根据期望的定位精度来选择anchor的标准,并且使用了多尺度RPN(Region Proposal Network)和多尺度分类网络。用改进后的Faster R-CNN在Flicker数据集上进行了验证,证明它能够提高小目标检测的性能。  相似文献   

9.
复杂自然场景中准确提取和检测文本信息是文本识别的基础和前提,它受到文本尺寸、摆放角度甚至是姿态的影响.针对传统算法中滑动窗口都是固定大小,一些自然场景图像中的文本检测难,图像边界呈现冗余,运算量增大,运算时间长等问题,通过改进滑动窗口区域生成网络(Region Proposal Network,RPN)策略,提出一种改进的RPN(Improved RPN)网络模型,运用共享的目标检测和回归检测算法提取其中的网络结构,最终得到一种改进的Faster R-CNN文本检测算法.在数据集中分别选取对比度高、对比度低和任意对比度进行不同算法的文本检测结果对比,实验结果表明,本文算法具有较好的检测效果.  相似文献   

10.
针对传统Faster R-CNN(Region-Convolutional Neural Networks)检测钢材表面小目标性缺陷性能差的问题,提出了一种基于改进Faster R-CNN的钢材表面缺陷检测方法.首先引入导向锚点候选区域网络(GA-RPN:Guided Anchoring Region Proposal...  相似文献   

11.
针对布匹瑕疵自动化检测,基于传统的机器视觉方法依赖于人工设计特征,对具有复杂背景图案的花色布瑕疵特征提取难度非常大,因此提出一种基于改进Faster R-CNN(faster region with convolutional neural network)的花色布瑕疵检测算法。在Faster R-CNN的基础上使用Resnet-50作为主干网络,嵌入可变形卷积来提高瑕疵特征的学习能力。通过设计多尺度模型来提高小瑕疵的检测,引入级联网络来提高瑕疵检测精度和定位准确度,构造优化的损失函数来降低样本不平衡影响。通过试验验证了该算法的有效性。结果表明,瑕疵检测效果准确率达94.97%,并能精准定位瑕疵位置,可满足工厂的实际需求。  相似文献   

12.
基于视觉的手部位姿估计技术应用于诸多领域,具备着广泛的国际应用市场前景和巨大发展潜力。然而,手部自身存在检测目标过小、手指高自由度以及手部自遮挡等问题。通过对目前存在的难点分析,将手部位姿估计任务分为手部检测和手部关键点检测,提出基于改进的Faster R-CNN的手部位姿估计方法。首先提出基于改进的Faster R-CNN手部检测网络,将传统Faster R-CNN网络中的对ROI(regional of interest)的最大值池化,更改为ROI Align,并增加损失函数用于区分左右手。在此基础上增加了头网络分支用以训练输出MANO(hand model with articulated and non-rigid deformations)手部模型的姿态参数和形状参数,得到手部关键点三维坐标,最终得到手部的三维位姿估计结果。实验表明,手部检测结果中存在的自遮挡和尺度问题得到了解决,并且检测结果的准确性有所提高,本文手部检测算法准确率为85%,比传统Faster R-CNN算法提升13%。手部关键点提取算法在MSRA、ICVL、NYU三个数据集分别取得关键点坐标的均方误差值(k...  相似文献   

13.
基于改进Faster R-CNN的自然场景文字检测算法   总被引:1,自引:0,他引:1  
自然场景中的文字受光照、污迹、文字较小等方面的影响,其检测难度较大,且传统的检测方法效果不好。在研究目标检测方法Faster RCNN的基础上,提出一种针对自然场景文字的改进方法。改进的模型由卷积神经网络特征提取模块,嵌套LSTM(nested long short-term memory,NLSTM)模块和区域候选网络(region proposal network,RPN)模块3部分组成,改进点主要是卷积神经网络特征提取模块增加了不同卷积层的空间特征融合,能够提取多层次的特征;增加嵌套LSTM模块能够学习长序列文本的序列特征,便于检测不定长度的文本序列;RPN模块通过设置宽为8像素,高度不定的锚点(anchor),可以提取一系列可能存在的目标建议框,其对小目标文字效果较好?。在实验部分,通过对标准数据集(ICDAR 2013,Multilingual)的实验结果对比表明,所提出的改进算法在准确率和效率方面明显优于改进前的算法。通过实列测试,改进的模型对小目标文字检测效果也有所提升。  相似文献   

14.
为了解决智能无人船水面漂浮物识别和定位精度不高的问题,提出了一种基于Faster R-CNN(Faster Regions with Convolutional Neural Network)的改进识别与定位算法(CA-Faster R-CNN).该方法采用Faster R-CNN算法对水面漂浮物进行初次识别和定位,对...  相似文献   

15.
为了从广域的视角准确全面地识别交通流信息,针对无人机视频提出了基于对称帧差和分块背景建模的车辆自动检测方法.首先,对视频图像进行4×4降维处理和灰度化处理,并人工勾勒出感兴趣区域(ROI),以降低图像维度,划定检测区域;其次,利用对称帧间差分法提取ROI中的运动目标,并在此基础上应用分块背景建模获得背景图像;然后,通过背景差分初步提取车辆信息;最后,基于形态学处理等方法消除噪声,实现车辆识别.此外,提出了针对车辆识别算法的正检率、重检率、漏检率和错检率4个评价指标.基于150帧无人机视频图像对算法进行测试,结果表明:算法具有较高的正检率(均值92.29%)、较低的漏检率(均值7.31%)与错检率(均值0.39%),而重检率为0.  相似文献   

16.
常规的火焰检测一般是提取火焰的静态或动态特征,然后进行火焰的判别.但是传统特征无法全面描述火焰特性,会导致识别的准确率降低.本文提出一种基于Faster R-CNN模型的火焰检测算法.首先利用候选区域生成网络(Region Proposal Network,RPN)提取火焰候选区域,然后对候选区域进行卷积及池化操作,提取火焰特征,最后利用联合训练的快速区域卷积神经网络(Fast R-CNN)进行火焰识别.实验结果表明该方法能够自动提取火焰特征,有效提高复杂背景下的火焰识别的准确率,具有良好的泛化能力和鲁棒性.  相似文献   

17.
路面灌封裂缝对路面使用寿命的影响较为突出,为了解决目前灌封裂缝检测技术匮乏的问题,文中提出了一种基于改进Faster R-CNN的路面灌封裂缝检测方法。首先,建立灌封裂缝图像集,对采集到的图像进行增广处理,构建路面灌封裂缝标注样本数据集,并将图像集按6∶2∶2的比例划分为训练集、验证集和测试集;接着,采用Faster R-CNN模型对灌封裂缝进行检测,针对Faster R-CNN检测灌封裂缝存在漏检、定位效果不够理想的问题,文中分别将VGG16、ZFNet和Resnet50网络的特征提取层与Faster R-CNN模型进行结合,结果表明,VGG16和Faster R-CNN结合的模型检测精度最高,达到0. 9031;然后,通过增加灌封裂缝候选框宽高比的方法继续改进模型,检测精度达到0. 907 3,且原先被漏检的目标能被检测出来;最后,对改进Faster R-CNN与YOLOv2模型的检测精度及定位效果进行对比,结果表明,文中提出的改进Faster RCNN能够明显提高对灌封裂缝的检测准确率和定位精度。  相似文献   

18.
针对传统车牌检测方法定位不准确、检测结果易受环境影响的问题,提出一种基于Faster R-CNN和Inception ResNetv2的车牌检测算法:通过迁移学习的方式实现精确的车牌定位,用像素点统计法处理车牌图像,实现单个字符的有效提取;mLeNet5卷积神经网络模型用于对单字符进行识别.结果表明,算法对有遮挡及角度倾斜的车牌字符能实现高效、高精确度的识别.  相似文献   

19.
提出了一种基于视频的车流量自动检测方法,首先用高斯平均法对一定数量视频帧图像进行训练得到初始背景,然后用基于卡尔曼滤波的背景差法提取前景以及背景更新,最后用双虚拟检测线法进行车辆计数。通过对实际道路车辆视频文件进行试验,检测准确率达到90%,满足实际应用要求。  相似文献   

20.
为了解决结肠镜下腺瘤性息肉和增生性息肉不易分型的问题,提出一种基于改进的Faster R-CNN的目标检测及息肉分类模型.在数据预处理阶段,对原有的2 426张息肉图像(1 582张腺瘤性息肉图像,844张增生性息肉图像)通过2种方式进行图像增强,并且通过改进的特征提取、边界框回归以及非极大值抑制的网络,用602张图像(386张腺瘤性图像,216张增生性息肉图像)进行测试.通过实验证明,在交并比(IoU)取0.5时,获得了86.8%的平均精度均值,相较于改进之前提升了2.3%.实验结果验证了该模型的潜在临床应用价值.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号