首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 312 毫秒
1.
为了准确研究辣椒采摘机器人受不同作业场景影响的规律,利用获取的采摘目标信息构建基于改进YOLOv5s的辣椒采摘识别定位模型.基于光照强度、光照角度、枝叶遮挡和果实重叠等场景建立图像数据库,引入双向特征金字塔网络改进YOLOv5s的特征融合网络进行深层次特征提取,以增强网络的信息表达能力,提高检测精度.探讨不同场景对该模型检测精度P、检出率R和平均精度均值(mean average precision, MAP)的影响规律.结果表明:改进后YOLOv5s模型对辣椒的检测精度高达95.6%,较YOLOv4、YOLOv3、YOLOv2及Faster R-CNN模型分别提高了6.1%,9.3%,44.4%,8.2%;光照角度处于正面90°时的检测效果最佳,MAP达97.3%;模型在白天强光和傍晚弱光场景下的鲁棒性好,MAP值高于90%;模型在枝叶遮挡场景下比果实重叠时的检测精度高;辣椒距离相机坐标系的空间坐标测量值取0.2 m时的误差仅为1 mm,满足辣椒采摘定位精度需求.  相似文献   

2.
针对跌倒对老年人安全性问题造成的影响,以及现有目标检测模型在人物跌倒时易漏检、鲁棒性和泛化能力差等问题,对YOLOv5s算法进行优化,提出一种老人跌倒检测算法。使用改进的RepVGG模块代替YOLOv5s算法中的3×3卷积模块,优化损失函数,选择K-means++算法对所用数据集进行聚类优化。结果表明,所提算法的鲁棒性好、泛化能力强,平均准确率比YOLOv3,YOLOv4,YOLOv5s, CBAM-YOLOv5s模型分别提高了9%,8%,3%和1.2%。所提出的算法能够满足现实中不同场景对老人跌倒行为的检测需求,可以应用于移动设备或者监控设备中,在老年人安全保障领域发挥重要作用。  相似文献   

3.
针对密集行人检测中行人之间高度遮挡重叠所带来的精度低和漏检高的问题,提出一种单阶段密集行人检测方法Dense-YOLOv5。实验基于YOLOv5-L,首先使用改进的RepVGG模块来替代原有3×3卷积加强密集场景下特征信息的提取;然后在原有3个检测头的基础上添加1个检测头降低对小尺度行人的漏检;最后在网络特征融合阶段引入注意力机制,添加1个高效通道注意力(efficient channel attention,ECA)模块提高对有用信息定位的精度。实验结果表明:DenseYOLOv5相比原YOLOv5在CrowdHuman数据集上,在保证实时性的前提下,平均精度(AP)提高了3.6%,对数漏检率平均值(MR-2)降低了4.0%,证明了Dense-YOLOv方法在密集行人检测中的有效性。  相似文献   

4.
针对密集场景下行人检测的目标重叠和尺寸偏小等问题,提出了基于改进YOLOv5的拥挤行人检测算法。在主干网络中嵌入坐标注意力机制,提高模型对目标的精准定位能力;在原算法三尺度检测的基础上增加浅层检测尺度,增强小尺寸目标的检测效果;将部分普通卷积替换为深度可分离卷积,在不影响模型精度的前提下减少模型的计算量和参数量;优化边界框回归损失函数,提升模型精度和加快收敛速度。实验结果表明,与原始的YOLOv5算法相比,改进后YOLOv5算法的平均精度均值提升了7.4个百分点,检测速度达到了56.1帧/s,可以满足密集场景下拥挤行人的实时检测需求。  相似文献   

5.
针对单一任务模型不能同时满足自动驾驶多样化感知任务的问题,提出了一种基于改进YOLOv5s的快速端到端道路多任务感知方法。首先,在YOLOv5s网络输出端设计两个语义分割解码器,能够同时完成交通目标检测、车道线和可行驶区域检测任务。其次,引入Rep VGG block改进YOLOv5s算法中的C3结构,借助结构重参数化策略提升模型速度和精度。为了提升网络对于小目标的检测能力,引入位置注意力机制对编码器的特征融合网络进行改进;最后基于大型公开道路场景数据集BDD100K进行实验验证该算法在同类型算法的优越性。实验结果表明,算法车辆平均检测精度为78.3%,车道线交并比为27.2%,可行驶区域平均交并比为92.3%,检测速度为8.03FPS,与同类型算法YOLOP、Hybrid Nets对比,该算法综合性能最佳。  相似文献   

6.
针对现有的无人机检测算法无法同时兼顾检测速度及检测精度的问题,本文提出了一种基于YOLOv5s(You Only Look Once)的轻量化无人机检测算法TDRD-YOLO(Tiny Drone Real-time Detection-YOLO).该算法首先以YOLOv5s的多尺度融合层和输出检测层分别作为颈部网络和头部网络,引入MobileNetv3轻量化网络对原骨干网络进行重构,并将骨干网络后的通道在原YOLOv5s的基础上进行压缩,减小网络模型大小;其次,将骨干网络中Bneck模块的注意力机制由SE修改为(Convolutional Block Attention Module,CBAM)并在颈部网络引入CBAM,使网络模型更加关注目标特征;最后修改颈部网络的激活函数为h-swish,进一步提高模型精度.实验结果表明:本文提出的TDRD-YOLO算法平均检测精度达到96.8%,与 YOLOv5s相比,参数量减小到原来的1/11,检测速度提升1.5倍,模型大小压缩到原来的1/8.5.实验验证了本文算法可在大幅降低模型大小、提升检测速度的同时保持良好的检测性能.  相似文献   

7.
随着深度学习技术的发展,水下图像检测近年来受到广泛的关注,为了克服在复杂水下环境下传统小鱼群的误检、漏检和识别准确率低等问题,提出一种改进YOLOv5的目标检测方法(INV-YOLOv5)。该方法包括将YOLOv5m中的Focus模块替换为卷积模块,提高网络精度;在主干网络(Backbone)中添加多头自注意力机制,增大网络特征提取视野;最后,在网络中引入了内卷算子和加权的特征融合,降低网络的参数量,提高检测精度。在实验阶段,使用Labeled Fishes in the Wild数据集和WildFish数据集验证,该方法的平均精度(mAP)分别为81.7%和83.6%,与YOLOv5m网络相比分别提升了6%和14.5%,不仅拥有较高的识别率并且更加轻量化,而且模型大小与YOLOv5m网络相比减少了6 M(Mega)左右,验证了所提出的改进方法具有较好的效果。  相似文献   

8.
为了防止路上行人摔倒不能及时救治,危及行人安全问题,提出了一种改进YOLOv5的行人摔倒检测算法YOLOv5-CBAM-WBF。首先,通过改进马赛克(Mosaic)算法来丰富数据集并缩短训练时长;其次,融入卷积注意力机制模块(Convolutional block attention module,CBAM),加强对检测目标的关注,以提升算法的特征提取能力;最后,提出了一种新的加权盒函数Weighted boxes fusion(WBF)方法,来对组合模型进行预测,该方法显著提高了组合预测矩形的质量。和原始YOLOv5算法进行比较,YOLOv5-CBAM-WBF算法的精确率、召回率以及平均精度分别提升了3.2%、2%和3.9%,表明该改进算法对于行人摔倒检测效果有了显著提升。  相似文献   

9.
针对安全帽佩戴检测中存在的误检和漏检的问题,提出一种基于YOLOv5模型改进的安全帽佩戴检测算法。改进模型引入多尺度加权特征融合网络,即在YOLOv5的网络结构中增加一个浅层检测尺度,并引入特征权重进行加权融合,构成新的四尺检测结构,有效地提升图像浅层特征的提取及融合能力;在YOLOv5的Neck网络的BottleneckCSP结构中加入SENet模块,使模型更多地关注目标信息忽略背景信息;针对大分辨率的图像,添加图像切割层,避免多倍下采样造成的小目标特征信息大量丢失。对YOLOv5模型进行改进之后,通过自制的安全帽数据集进行训练检测,mAP和召回率分别达到97.06%、92.54%,与YOLOv5相比较分别提升了4.74%和4.31%。实验结果表明:改进的YOLOv5算法可有效提升安全帽佩戴的检测性能,能够准确识别施工人员的安全帽佩戴情况,从而大大降低施工现场的安全风险。  相似文献   

10.
火灾的发生极大地威胁到人类的生命、财产安全,如何在初始阶段遏制火情尤为重要。针对复杂环境下火焰和烟雾目标较小、检测精度低、速度慢等问题,提出一种基于GB—YOLOv5的烟火智能检测方法。由于现有数据集限制,首先自建了包含4143张不相似图像的烟火数据集;其次将融合了注意力机制Convolutional Block Attention Module的Ghost Bottleneck模块与YOLOv5结合,在保证准确率的前提下,提高了检测速度;最后采用BIFPN模块替代PAN模块来增强颈部,更好地实现多特征融合,提高火焰和烟雾的检测能力。实验结果表明,改进后检测方法的平均精度均值比YOLOv5s高6.1%,推理速度比YOLOv5s快21%。  相似文献   

11.
针对公路上高速行驶的车辆检测常常存在错检、漏检的问题,对YOLOv4算法进行改进优化.首先,将CSPDarknet53-tiny作为主干特征提取网络,并对网络中的ResBolck_body模块中的残差边与GhostModule模块结合代替原始特征网络CSPDarknet53,从而简化网络结构,同时提高其检测精度;然后,将原算法中的SPPNet模块结构替换为ASPPNet,增大网络感受野,降低参数计算量,使模型能够在保持精准度的同时更加轻量化;最后,将注意力机制模块SENet结构嵌入特征金字塔PANet的两个不同位置,使其可对不同重要程度的特征进行相应处理.在BDD100K数据集实验中,原YOLOv4算法训练后得到的模型的平均精度(AP)为88.27%,改进优化后的YOLOv4模型AP为90.96%,改进后的YOLOv4算法相比原算法AP提高了2.69%.在实际真实场景数据集实验中,改进优化后的YOLOv4算法比原算法AP提高了3.31%.实验结果表明,本文提出的方法可以有效提高YOLOv4算法对车辆目标检测的精度.  相似文献   

12.
根据以往钢铁表面缺陷检测技术的检测效能较低、准确性低的情况,提出一种改进YOLOv5s的钢材表面缺陷检测算法。主要改进为:加入坐标注意力机制(Coordinate Attention,CA)的空洞空间卷积池化金字塔 (Atrous Spatial Pyramid Pooling,ASPP),扩大模型感受野和多尺度感知能力的同时能更好的获取特征位置信息;加入改进的选择性内核注意力机制(Selective Kernel Attention,SK),使模型能更好的利用特征图中的频率信息,提升模型的表达能力;将损失函数替换为SIoU,提升模型性能的同时加快模型的收敛。实验数据表明,改进的YOLOv5s网络模型在NEU-DET数据集上的mAP值为78.13%,相比原网络模型提高了2.85%。改进的模型具有良好的检测型性能的同时检测速度为103.9 FPS,能够满足实际应用场景中钢材表面缺陷实时检测的需求。  相似文献   

13.
针对在自然交通场景中道路不同种类目标的边界框大小差异巨大,现有实时算法YOLOv3无法很好地平衡大、小目标的检测精度等问题,重新设计了YOLOv3目标检测算法的特征融合模块,进行多尺度特征拼接,对检测模块进行改进设计,新增2个面向小目标的特征输出模块,得到一种新的具有5个检测尺度的道路目标多尺度检测方法YOLOv3_5d.结果表明:改进后的YOLOv3_5 d算法在通用自动驾驶数据集BDD100 K上的检测平均精度为0.5809,相较于原始YOLOv3的检测平均精度提高了0.0820,检测速度为45.4帧·s-1,满足实时性要求.  相似文献   

14.
针对复杂场景下交通标志检测存在精度低、检测速度慢等问题,提出一种基于YOLOv3改进的S-YOLO交通标志算法。首先,合并批归一化层到卷积层,以提升模型前向推理速度;其次,采用二分K-means聚类算法,确定适合交通标志的先验框;然后引入空间金字塔池化模块,提取特征图深度特征;最后引入CIoU回归损失函数,提升模型检测精度。实验结果表明,在重制的CTSDB交通标志数据集下,所提算法与YOLOv3相比,平均准确率和检测速度分别提升了4.26%和15.19%,同时相较YOLOv4以及其他算法对交通标志识别有更优的精度和速度,具有良好的鲁棒性,满足复杂场景高效实时检测。  相似文献   

15.
传统的动物行为分析方法大部分是采取离线的形式,不能做到实时分析。为了解决此问题,本文提出了一种改进YOLO5Face的小鼠行为实时分析方法。本方法分为两个步骤:首先是小鼠关键点实时检测,然后是小鼠行为实时识别。针对小鼠关键点实时检测,在深度学习网络YOLO5Face的基础上改进:新增了一个更小的检测头来检测更小尺度的物体;主干网络中加入YOLOv8的C2f模块,让模型获得了更加丰富的梯度流信息,大大缩短了训练时间,提高了关键点检测精度;引入GSConv和Slim-neck,减轻模型的复杂度同时提升精度。结果表明:模型对鼻尖、左耳、右耳、尾基关键点检测的平均PCK指标达到了97.5%,推理速度为79 f/s,精度和实时帧率均高于DeepLabCut模型的性能。针对小鼠行为实时识别:利用上述改进的关键点检测模型获得小鼠关键点坐标,再将体态特征与运动特征相结合构造行为识别数据集,使用机器学习方法SVM进行行为分类。模型对梳洗、直立、静止、行走四种基本行为的平均识别准确率达到了91.93%。将关键点检测代码与行为识别代码拼接,整个代码运行的实时帧率可以达到35 f/s。  相似文献   

16.
船舶智能化的发展对船舶视觉感知系统实时目标检测能力提出了更高要求,YOLOv5作为YOLO(You Only Look Once)系列算法的最新成果,以良好的速度和精度被广泛应用于海上目标检测.但在实际海上航行中往往伴随着多变的自然条件和复杂的活动场景,这使其在复杂海域中小目标检测能力和多目标分类效果并不理想.因此,为提升YOLOv5在复杂海域中目标检测能力,本文提出多路径聚合网络结构(MPANet).在自底向上特征传递过程中融合多层次特征信息以增强多尺度定位能力,同时结合SimAM注意力模块和Transformer结构增强高阶特征语义信息.在自定义数据集中实验结果表明:MPANet-YOLOv5相较于YOLOv5模型AP提升了5.4% ,召回率提升了3.3%,AP0.5提升了3.3%,AP0.5:0.95提升了2.2%,不同海域测试结果显示MPANet-YOLOv5海面小目标检测能力明显优于YOLOv5.  相似文献   

17.
为提高实际应用场景中行人的检测精度,提出使用高分辨率特征提取网络HRNet(High-Resolution Representation Network)并引入Guided Anchoring机制对RetinaNet算法进行改进,维持了特征图在特征提取过程中的高分辨率信息,同时使网络中的锚框自适应生成,提高了算法的检测精度。结果表明:该改进算法在Caltech行人数据集上取得了0.905的平均精度均值(mean average precision,简称mAP),相比于标准的RetinaNet算法提高了6.0%,在每帧图像尺寸为1280×720像素的视频上检测速度达到了19FPS(每秒检测帧数) ,达到了检测精度与检测速度的均衡。  相似文献   

18.
针对传统YOLOv3算法中存在检测框定位不精确的问题,提出了一种改进的YOLOv3算法用来重新估计检测框位置,提高智能汽车在雾霾交通环境下的定位精度。首先运用图像去雾算法对采集到的图片进行预处理,然后构造定位置信度替代分类置信度作为参考项来选择估计检测框位置,并改进非极大值抑制(NMS)算法,引入软化非极大值抑制(soft-NMS),最后使用加权平均的方式来更新坐标位置,以达到提高定位精度的目的。实验结果表明,先经过单尺度retinex去雾算法处理图片,再通过改进的YOLOv3算法进行车辆检测,与使用原始的YOLOv3算法进行检测相比平均精度均值mAP(mean average precision)提高了0.44%,在满足检测实时性的同时,能够检测到更多的目标,对检测车辆的定位也更加精确。  相似文献   

19.
针对光照不均匀和水表表盘雾化的指针式水表在读数检测时出现漏检、误检等问题,本文提出一种基于改进YOLOv5s的指针式水表读数检测方法。首先,采用Mosaic,Mixup等数据增强方法,提高模型的泛化能力;其次,引入BiFPN模块(Bilateral Feature Pyramid Network)实现更高层次的特征融合,使得水表图像的深层特征图和浅层特征图充分融合,提高网络的表达能力;然后,嵌入CBAM注意力机制模块(Convolutional Block Attention Module),在通道和空间双重维度上强化指针式水表子表盘示数特征;最后将CIoU-Loss函数(Complete Intersection over Union Loss)替换为SIoU_Loss,提升边界框的回归精度。改进算法的mAP@0.5达到97.8%,比YOLOv5s原始网络提升了3.2%。实验结果表明:该算法能有效提高指针式水表的读数检测精度。  相似文献   

20.
针对安全帽佩戴检测时易受复杂背景干扰,解决YOLOv4网络检测速度慢、内存消耗大、计算复杂度高、对硬件性能要求较高等问题,引入改进YOLOv4算法优化安全帽佩戴检测方法。引入MobileNet网络轻量化YOLOv4、跨越模块特征融合,实现高层语义特征和低层语义特征有效融合。针对图像中小目标分辨率低,信息特征少,多尺度并存,导致在连续卷积过程中易丢失特征信息等问题,采用改进特征金字塔FPN和注意力机制等颈部优化策略聚焦目标信息,弱化安全帽检测时背景信息的干扰。仿真结果表明,基于改进的YOLOv4颈部优化网络安全帽佩戴检测算法在CPU平台下的检测速度为34.28 FPS,是基础YOLOv4网络的16倍,检测精度提升了4.21%,检测速度与检测精度达到平衡。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号