首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 31 毫秒
1.
自动三维乳腺超声(Automated 3-D Breast Ultrasound,ABUS)克服传统超声的缺陷,成功应用于对腹壁疝轻量型补片的检查.但人工检阅ABUS超声图像耗时费力,且极易出现漏诊等问题.因此,文章提出一种基于改进YOLOv3和迁移学习的目标检测算法以辅助医生提高审阅速度和准确性.基于原有的YOLOv3模型,在检测层前增加空间金字塔池化(Spatial Pyramid Pooling,SPP)模块实现局部特征与全局特征的融合,丰富特征图的表达,解决了检测图像中小目标难以检测的问题;在网络训练中,采用迁移学习的策略进行训练网络以克服轻量型补片图像数据集有限的问题,提升网络的鲁棒性减少过拟合产生.实验结果表明,YOLOv3-SPP算法结合迁移学习训练方式,其平均精度均值(mean Average Precision,mAP)达到90.15%,图像检测速度为33.2 f·s-1,可有效辅助医生提高审阅效率.  相似文献   

2.
针对安全帽佩戴检测中存在的误检和漏检的问题,提出一种基于YOLOv5模型改进的安全帽佩戴检测算法。改进模型引入多尺度加权特征融合网络,即在YOLOv5的网络结构中增加一个浅层检测尺度,并引入特征权重进行加权融合,构成新的四尺检测结构,有效地提升图像浅层特征的提取及融合能力;在YOLOv5的Neck网络的BottleneckCSP结构中加入SENet模块,使模型更多地关注目标信息忽略背景信息;针对大分辨率的图像,添加图像切割层,避免多倍下采样造成的小目标特征信息大量丢失。对YOLOv5模型进行改进之后,通过自制的安全帽数据集进行训练检测,mAP和召回率分别达到97.06%、92.54%,与YOLOv5相比较分别提升了4.74%和4.31%。实验结果表明:改进的YOLOv5算法可有效提升安全帽佩戴的检测性能,能够准确识别施工人员的安全帽佩戴情况,从而大大降低施工现场的安全风险。  相似文献   

3.
为加强对河道监控视频图像中散体物料采运船舶的监测和跟踪,从而辅助实现智能、高效的河道采砂监管和散体物料调度,基于You Only Look Once version 3(YOLOv3)算法及迁移学习提出一种河道散体物料船舶目标检测算法。首先使用COCO数据集训练初始的YOLOv3算法,得到模型的预训练权重;然后对从广西重要河道周围监控设备采集的采砂运砂船舶影像数据进行图像处理,得到高质量船舶数据集;最后以此数据集为驱动,利用迁移学习得到的预训练权重来训练针对河道采砂船等重点目标的YOLOv3检测模型。该模型采用Darknet-53作为主干网络,并融合了多尺度的特征图,从而实现对小、中、大等各类目标的检测。实验结果表明:该算法在测试集上的平均精度和检测速度分别达到98.00%和17.78 fps,对提高河道采砂监管效能和实现散体物料智能调度具有现实意义。  相似文献   

4.
针对当前以目标检测为核心的抛洒物检测算法无法识别“未知类别”的缺陷,以抛洒物引发外观特征变化的视角切入,提出基于特征相似性学习的抛洒物检测方法。首先,在抛洒物体过程中采集参考图像和待检图像,通过参数共享的孪生卷积神经网络得到两张图像的外观特征,然后利用欧式距离等特征相似性函数计算图像区域之间的特征变化并得到欧式距离热力图,最后经阈值筛选得到抛洒物检测结果。为了提升算法对光照等噪声的抗干扰能力,提出全新的注意力掩膜单元,并通过构建长跨度上下文信息和强监督学习的方式提升注意力掩膜的语义判别性能,引导特征响应聚焦于抛洒物引起的外观变化,同时忽略噪声产生的扰动,最终解决噪声干扰和抛洒物产生的特征缠绕问题。为了验证方法的有效性,本研究在真实高速公路场景下进行视频影像数据采集、标注、构建成标准数据集。结果表明:注意力掩膜单元有效提升了特征的语义判别性能,大幅度提高抛洒物检测精度,其中调和均值F1提高6.4个百分点,同时算法运行速度稳定在30帧/s,满足实时性需求;利用特征序列状态转移方式构建的长跨度上下文信息更有利于注意力掩膜聚焦抛洒物特征信息,抗噪声干扰能力更强;通过强监督...  相似文献   

5.
针对输送带纵向撕裂检测中存在的检测视角单一、速度慢、精度低等问题,文章提出一种基于改进YOLOv3算法的输送带纵向撕裂多视角检测方法。首先对原始YOLOv3网络结构进行优化设计,采用29层网络模型(Darknet-29)作为特征提取网络,将原有的3种不同尺度锚点改用为2种不同尺度(26×26,52×52)锚点;将位于多视角检测点的工业相机所采集的纵向撕裂图像制作成数据集,使用K-means算法对输送带纵向撕裂标签进行维度聚类分析,确定先验框参数;最后将改进的YOLOv3算法在数据集上进行测试与训练,并与其他几种算法进行比较。实验结果表明:该检测方法不仅可以较好地检测出输送带纵向撕裂,还可以分类识别出大裂纹或完全撕裂情形;相较于原始YOLOv3算法,改进后的YOLOv3算法平均检测精度均值提高0.4%,达到98.7%,检测速度提高60.6%,达到53帧/s,模型占用内存减少93 Mb,仅为141 Mb,优于YOLOv2和YOLOv3-Tiny算法。该文提出的输送带纵向撕裂检测方法具有模型占用内存低、检测精度高及速度快等优点,为输送带纵向撕裂提供了一种新的检测方案。  相似文献   

6.
在基于深度网络的工业板材表面缺陷检测应用中,缺陷图像的类别不平衡和数量不足严重制约了深度网络的应用性能.为了解决此问题,提出一种基于同类融合的工业数据扩充方法以丰富表面缺陷图像训练集.首先根据缺陷特征将表面缺陷图像集中的样本进行分类,随机选择属于同一类别的多个样本执行融合操作以扩充数据量和丰富样本类型,然后将原始数据和扩充的人工数据组合起来作为新训练集,以提升模型分类和检测的能力.以实际生产中采集的钢材表面缺陷图像进行实验,并与生成算法扩充的样本进行比较.实验结果表明,该算法不仅在扩充表面缺陷图像质量上超过了卷积生成对抗网络(DCGAN)和循环一致生成对抗网络(CycleGAN)等生成算法,并在缺陷目标分类和检测任务上取得了更有效的扩充效果.  相似文献   

7.
快速、准确地检测材料表面缺陷已成为各领域研究的重要目标,为增加检测效率,实现设备轻量化,提出了一种基于YOLOv5的目标检测优化算法,添加DyHead检测头,融合多个注意力机制,增强模型的检测精度;更换aLRPLoss损失函数,减少超参数调节工作,优化训练过程;基于FasterNet提出C3-Faster,代替网络中的C3模块,以PConv的思想提升模型检测性能,减少模型体积;最后添加轻量级上采样算子CARAFE,扩大模型感受野,提升对不同大小目标的检测效果。实验结果表明,改进后的YOLOv5模型相比于原版模型,在钢材表面缺陷数据集上总体平均精度提高了4.174%,参数量减少了11.25%,计算复杂度减少了13.75%,权重体积减少了10.72%,检测性能高于SSD、RetinaNet、FCOS、YOLOv3、YOLOv4等主流目标检测算法,在工业检测中具有较高的应用价值。  相似文献   

8.
为获得道路桥梁上汽车车轴的分布状况,基于YOLOv5 DeepSORT机器视觉技术对监控视频中车轴时空定位的方法进行研究。首先,根据监控视频中车轴多尺度、小目标的特点,提出基于Faster R-CNN算法的图像半自动标注方法,快速构建车轴目标检测数据集;利用YOLOv5算法检测视频中的车轴目标,并对YOLOv5系列算法性能进行评估;然后,提出在视频监测区域中设置虚拟检测区,先利用卡尔曼滤波算法对车轴目标的位置和状态进行预测,再分别利用重识别算法、匈牙利算法和级联匹配方法实现前后2帧车轴目标的匹配,完成基于DeepSORT算法的车轴多目标跟踪,生成车轴轨迹;最后,利用多目标跟踪结果,结合直接线性转换和基于匀速假定的位置推定,实现了对桥上所有车轴的时空定位。结果表明:在目标检测方面,YOLOv5s6模型表现最优,准确率达到96.42%,检测时间19.2 ms/帧,对车轴具有高准确率和更快的检测速度;在多目标跟踪方面,基于虚拟检测区和YOLOv5 DeepSORT的多目标跟踪方法具有更好的检测和跟踪效果,与不设置虚拟检测区对比,多目标跟踪精度(MOTA)和识别精确率与识别召回率的调和平均数(...  相似文献   

9.
地下排水管道缺陷检测是地下管线高效管理的基础,也是实现“智慧城市”的关键性问题。针对工程项目中对管道缺陷判别的需要,提出并实现了一套实用的地下排水管道缺陷智能检测FEDDR(frame extracting-detection-duplicate removal)系统,将视频缺陷检测过程分为检测前的视频预处理阶段、缺陷检测模型构建阶段以及缺陷检测优化3个阶段,采用帧间差分算法及VGG16网络对管道视频抽帧处理,筛选出兴趣检测帧,减少待检测数据量;选取YOLOv3为网络主框架,用轻量高效的EfficientNet结构替换原来的主干网络,采用迁移学习策略,用自建数据集Pipe-DATA对其进行训练,建立起高效的管道缺陷检测模型,并在检测帧输出检测结果时采用两次输出的优化策略来防止缺陷漏检;对检测出的缺陷帧图像进行文字识别,去重优化自动生成结果表单。将该方法应用到了某区域的将近3 km的管道视频数据中,共检测出了656个缺陷,与人工判别结果对比,准确率达94.3%,召回率达到98.7%,整个过程一体化完成,大大减少了人工成本,提高了排水管道缺陷的检测效率,具有工程实用性。  相似文献   

10.
为降低荧光编码微球技术的应用成本,提出了一种基于Mask R-CNN目标检测算法的荧光编码微球图像检测方法.首先基于TensorFlow和Keras深度学习框架搭建Mask R-CNN网络模型,整体网络由特征提取网络,候选区域生成网络和分支处理网络3部分构成;通过有标注定性图像样本集训练网络模型,并使用合成图像实现训练集数据增强;将待检测定性图像样本输入训练完成的网络模型获得定性图像的语义掩膜.实验结果表明,对于单色和双色微球定性实验图像,平均检测准确度分别达94.17%和95.96%,可实现荧光编码微球定性图像的边界框检测、分类以及语义掩膜生成.  相似文献   

11.
为了防止路上行人摔倒不能及时救治,危及行人安全问题,提出了一种改进YOLOv5的行人摔倒检测算法YOLOv5-CBAM-WBF。首先,通过改进马赛克(Mosaic)算法来丰富数据集并缩短训练时长;其次,融入卷积注意力机制模块(Convolutional block attention module,CBAM),加强对检测目标的关注,以提升算法的特征提取能力;最后,提出了一种新的加权盒函数Weighted boxes fusion(WBF)方法,来对组合模型进行预测,该方法显著提高了组合预测矩形的质量。和原始YOLOv5算法进行比较,YOLOv5-CBAM-WBF算法的精确率、召回率以及平均精度分别提升了3.2%、2%和3.9%,表明该改进算法对于行人摔倒检测效果有了显著提升。  相似文献   

12.
针对可见光图像和红外图像的融合目标检测问题,提出了一种基于决策级融合的目标检测算法。通过建立带标注的数据集对YOLOv3网络进行重新训练,并在融合之前,利用训练好的YOLOv3网络对可见光图像和红外图像分别进行检测。在融合过程中,提出了一种新颖的检测融合算法,首先,保留只在可见光图像或只在红外图像中检测到的目标的准确结果;然后,对在可见光图像和红外图像中同时检测到的同一目标的准确结果进行加权融合;最后,将所得的检测结果进行合并,作为融合图像中所有对应目标的检测结果,进而实现基于决策级融合的快速目标检测。实验结果表明:各项指标在建立的数据集上均有较好的表现。所提算法的检测精度达到了84.07%,与单独检测可见光图像和红外图像的算法相比,检测精度分别提升了2.44%和21.89%,可以检测到更多的目标并且减少了误检目标的情况;与3种基于特征级图像融合的检测算法相比,算法的检测精度分别提升了4.5%,1.74%和3.42%。  相似文献   

13.
针对人工检测桥梁表面缺陷存在精度低、速度慢和漏检率高等问题,该文提出了基于深度卷积生成式对抗网络(deep convolutional generative adversarial networks,DCGAN)和改进YOLOv5s的桥梁表面缺陷检测识别模型.首先,通过DCGAN网络对自主采集的桥梁表面缺陷图像进行数据增强,建立每类缺陷样本数量较为均衡的数据集; 其次,在YOLOv5s模型基础上嵌入CBAM注意力机制模块,使模型将注意力集中于缺陷区域,从而提升图像分类的准确率; 最后,为验证所提方法的适用性,将包含4类桥梁表面缺陷的数据集进行训练与测试.实验结果表明:该文提出的模型在桥梁表面缺陷检测上的准确率为92%,相比其他深度学习模型具有更高的检测精度和鲁棒性.  相似文献   

14.
针对传统钢材表面缺陷检测方法存在检测效率低、检测精度差等问题,提出一种基于改进YOLOv5的钢材表面缺陷检测算法。首先使用GhostBottleneck结构替换原YOLOv5网络中的C3模块和部分卷积结构,实现网络模型轻量化;其次在Backbone部分引入SE注意力机制,对重要的特征通道进行强化;最后针对数据集特点在网络中增加一个检测层,强化特征提取能力,并在Neck部分增加特征融合结构,使用DW卷积替换部分标准卷积以减少运算量。实验表明,改进的YOLOv5sGSD算法,模型体积减少了10.4%,在测试集上的mAP值为76.8%,相比原YOLOv5s网络提高了3.3%,检测精度和速度也明显高于一些主流算法。相比传统的钢材表面缺陷检测方法,提出的算法能够更加准确、快速地检测出钢材表面缺陷的种类和位置,并且具有较小的模型体积,方便于在移动端的部署。  相似文献   

15.
基于口令的身份鉴别是目前最流行的鉴别方式之一,利用口令生成技术进行大规模口令集的生成,进而检测现有用户口令保护机制的缺陷、评估口令猜测算法效率等,是研究口令安全性的重要手段.本文提出一种基于有序马尔可夫枚举器和判别神经网络的口令生成模型OMECNN,使用有序马尔可夫口令枚举器按照口令组合概率的高低生成组合口令,同时基于判别神经网络进行打分筛选口令,选出得分高于阈值的口令组成最终口令集.采用本文提出方法生成的口令集具有按照口令组合概率高低排序的特点,以及符合真实训练口令集的口令分布的特点.实验结果表明,在生成10~7条口令时,OMECNN模型生成的口令集在Rockyou测试集上的匹配条目比OMEN模型高出16.60%,比PassGAN模型高出220.02%.  相似文献   

16.
针对将YOLOv3通用目标检测算法应用于行人检测时的检测精度低、定位不准确的问题,提出了一种基于YOLOv3的适用于行人体态特征的目标检测算法。在预处理生成先验框部分,将MSCOCO通用数据集改进为MSCOCO中的person子集来生成仅针对行人体态特征的锚框,并将生成先验框的K-means算法改进为K-means++算法以弥补K-means算法选择中心点的随意性。针对特征提取,改进了卷积神经网络(CNN) Darknet-53的结构以使其能够提取到更多与行人尺度有关的特征信息。损失函数中的目标定位部分改进为更加符合行人体态特征的损失函数。实验使用MSCOCO训练集中的person子集训练模型,分别使用MSCOCO测试集的person子集和自制的行人数据集作为测试集验证模型。结果显示,对比YOLOv3的通用目标检测算法,该文改进算法更易于提取行人特征并提供有效反馈,提高了检测精度。  相似文献   

17.
针对传统方法过分依赖颜色等特征,导致对古籍文档复印件检测效果不佳的问题,基于深度学习技术建立了一种新的满文文档图像印章检测方法。通过图像变换和合成技术建立满文古籍文档图像数据增广算法解决训练数据不足的问题,在所构建的增广数据集上建立Faster R-CNN深度学习模型挖掘深层图像特征,实现满文文档图像印章检测方法。对采集的真实满文文档复印件图像进行实验,印章检测精度可以达到99.6%,表明本文的方法可以有效的检测古籍文档复印件图像中的印章,对满文文档的研究有重要意义。  相似文献   

18.
本研究针对现有方法在实现风格迁移任务时只能提取图像特征的低阶统计量这一问题,考虑将风格迁移过程建模为一个特征分布匹配过程,提出了一个基于Wasserstein距离的判别器网络并以此定义了一个风格损失函数,Wasserstein判别器能够更好地拟合特征分布之间的Wasserstein距离,定义的风格损失也能够更好地区分图像特征的高阶统计信息之间的差异。同时,为了达到实时生成的效果,引入一个基于编码器-解码器结构和一个基于注意力机制的风格迁移转换模块作为生成网络,该生成网络能够有效融合原始图像特征并生成。具体而言,通过在计算损失模块的卷积层(CNN)后面添加Wasserstein判别器来计算风格损失,然后将风格损失与传统方法中计算为均方误差的内容损失一起监督生成网络的训练,在网络训练结束后,可以输入任意图像进行风格迁移测试。最后,在基准MSCOCO和WikiArt数据集上训练网络并测试结果,定性实验和定量实验结果表明,与现有方法相比,所提出的方法可以实现实时风格迁移,并且生成高质量风格化效果。  相似文献   

19.
 提出了1种基于PCA(主成分分析)的贝叶斯判别器用于检测灰度面部图像.为检测面部图像,首先用PCA减低训练图像的维数以为判别器提供教好的图像描述.训练图像包括面部图像和非面部图像并给出正确标识,用EM算法学习图像的特征向量.在构建好学习模型后,用贝叶斯后验概率检测未知样本.模型参数估计和判别原则都是基于最大似然度.在估计了概率密度函数后,贝叶斯判别器可产生最小的误差,为分类的教优准则.本方法用2356副面部图像和3780非面部图像作为学习样本,学习过程获取面部图像与非面部图像的差异而构建判别模型.训练图像包括不同位置,不同表情,不同亮度条件的同一对象图像.训练模型用于检测205副面部图像,实验结果在文章第4部分给出.  相似文献   

20.
准确检测变电站中的设备缺陷并及时进行处理是保证电力系统安全运行的重要措施.针对表计缺陷图像背景复杂、目标尺寸不一、外形差别大等问题,提出基于改进YOLOv5(you only look once的第5个版本)的变电站表计缺陷检测算法.为了提高泛化能力、解决训练过程中样本不平衡问题,利用旋转和改变图像亮度的方法进行数据增广.通过引入坐标注意力机制,在聚焦缺陷特征的同时,能突出缺陷特征的差异.为了使边界框回归更快速准确,将EDIOU loss(effective distance intersection over union loss)代替CIOU loos(complete intersection over union loss).实验结果表明:6种算法中,该文算法的准确度、召回率和mAP(mean average preciscion)均最高,分别达85.1%, 86.6%, 87.3%.因此,该文算法具有优越性.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号