首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到14条相似文献,搜索用时 312 毫秒
1.
针对合成孔径雷达图像目标检测易受噪声和背景干扰影响,以及多尺度条件下检测性能下降的问题,在兼顾网络规模和检测精度的基础上,提出了一种改进的合成孔径雷达舰船目标检测算法。使用坐标注意力机制,在确保轻量化的同时抑制了噪声与干扰,以提高网络的特征提取能力;融入加权双向特征金字塔结构以实现多尺度特征融合,设计了一种新的预测框损失函数以改善检测精度,同时加快算法收敛,从而实现了对合成孔径雷达图像舰船目标的快速准确识别。实验验证表明,所提算法在合成孔径雷达舰船检测数据集(synthetic aperture radar ship detection dataset, SSDD)上的平均精度均值达到96.7%,相比于YOLOv5s提高1.9%,训练时收敛速度更快,且保持了网络轻量化的特点,在实际应用中具有良好前景。  相似文献   

2.
针对传统的车辆目标检测算法检测精度低,小尺度目标识别效果差等问题,提出了一种基于YOLOv4(you only look once v4)算法的目标检测方法,以提升对交通场景小目标车辆的检测性能。通过对YOLOv4网络进行再设计,使用MobileNetv2深度可分离卷积模块代替传统卷积,将CBAM(convolutional block attention module)注意力模块融合到特征提取网络中,在保证模型检测精度的同时减少模型参数。采用PANet-D特征融合网络融合获取到4个尺度特征图深浅层的语义信息,增强对小目标物体的检测能力。通过使用Focal loss优化分类损失函数,加快网络模型的收敛速度。实验结果表明,改进后的网络识别准确率达到96.55%,网络模型大小较原YOLOv4网络降低了92.49 M,同时检测速度比原网络提升了17%,充分证明了本算法的可行性。  相似文献   

3.
面向合成孔径雷达(synthetic aperture radar, SAR)多目标检测应用, 提出了一种基于YOLO (you only look once) 框架的无锚框SAR图像舰船目标检测方法。该方法针对YOLOv3锚框需要预先设定且无法完美契合的弊端, 通过采用无锚框方法更好适应所检测目标的大小, 便于多尺度目标使用。在此基础上, 给CSPDarknet53网络增加了注意力机制作为特征提取网络, 然后经过能够增大感受野的改进特征金字塔网络(feature pyramid network, FPN)后, 把特征图传给无锚框检测头, 有效提升了目标类别和位置的预测精度。实验证明, 所提算法在公开SAR舰船数据集上平均精度比YOLOv3提高3.8%,达到了94.8%, 虚警率降低4.8%。  相似文献   

4.
针对传统雷达图像目标检测方法在海杂波及多种干扰物组成的复杂背景下目标分类识别率低、虚警率高的问题,提出将当前热点研究的深度学习方法引入到雷达图像目标检测。首先分析了目前先进的YOLOv3检测算法优点及应用到雷达图像领域的局限,并构建了海杂波环境下有干扰物的舰船目标检测数据集,数据集包含了不同背景、分辨率、目标物位置关系等条件,能够较完备地满足实际任务需要。针对该数据集包含目标稀疏、目标尺寸小的特点,首先利用K means算法计算适合该数据集的锚点坐标;其次在YOLOv3的基础上提出改进多尺度特征融合预测算法,融合了多层特征信息并加入空间金字塔池化。通过大量对比实验,在该数据集上,所提方法相比原YOLOv3检测精度提高了6.07%。  相似文献   

5.
针对YOLO(you only look once)v5算法在应用于光学遥感图像舰船目标检测任务时所面临的小目标误检率、漏检率较高的情况,提出一种基于YOLOv5改进的光学遥感图像舰船目标检测方法。首先对路径聚合网络结构进行改进,设计语义信息增强模块提取更富语义信息的浅层特征,增强对小目标特征的表达能力;然后使用Swish函数作为激活函数,提高网络对数据非线性特征的表征能力,加快模型的收敛速度;最后针对舰船目标的尺寸特点优化检测端结构,移除大目标检测头以减少推理计算量。测试集上的实验表明,该方法相较改进前将检测精度提高了5.2%且推理时间有所减少,在保证检测实时性的同时增强了模型的小目标辨别能力。  相似文献   

6.
针对已有的YOLO(you only look once)模型在行人目标检测中对遮挡及多尺度行人易造成漏检和精度较低的问题,提出改进YOLO行人检测算法YOLO-SSC-s(YOLO-spatial pyramid poolingshuffle attention-convolutional block attention module-simplified)。修改YOLO模型骨干网络,增强跨尺度特征提取能力;在3个YOLO层前的不同位置引入空间金字塔池化模块以及空间与通道、组特征2种注意力机制,加强对不同尺度行人的特征融合;为了缓解网络模型过于复杂而降低检测性能,提高模型训练效率,根据实际情况对网络结构进行简化。实验结果表明:与YOLOv3等检测模型相比,YOLO-SSC-s可有效提高遮挡情形下中、小行人目标的检测精度、速度,降低漏检率。  相似文献   

7.
为提高无人驾驶汽车感知系统硬件资源利用率,构建了一种基于特征融合的无人驾驶多任务感知算法。采用改进的CSPDarknet53作为模型的主干网络,通过构建特征融合网络与特征融合模块对多尺度特征进行提取与融合,并以7种常见道路物体的检测与可行驶区域的像素级分割两任务为例,设计多任务模型DaSNet(Detection and Segmentation Net)进行训练与测试。使用BDD100K数据集对YOLOv5s、Faster R-CNN以及U-Net模型进行训练,并对mAP、Dice系数以及检测速度等性能指标做出对比分析。研究结果表明:DaSNet多任务模型在道路物体检测任务上,mAP值分别比YOLOv5s和Faster RCNN高出0.5%和4.2%,在RTX2080Ti GPU上达到121FPS的检测速度;在占优先权与不占优先权的可行驶区域上分割的Dice值相较于U-Net网络分别高出了4.4%与6.8%,有较明显的提升。  相似文献   

8.
针对合成孔径雷达(synthetic aperture radar, SAR)图像近岸舰船目标易受背景杂波的影响, 造成SAR图像近岸舰船目标检测检测率低、虚警率和漏检率高的问题,提出一种适用于复杂背景下SAR图像近岸舰船目标检测的DFF-Yolov5(deformable feature fusion you only look once 5)算法。构建了一个专门用于SAR图像复杂背景近岸舰船目标检测的数据集, 基于Yolov5目标检测算法, 在特征提取网络中进行特征细化和多特征融合两个方面的改进。在特征提取网络中利用可变形卷积神经网络改变卷积对目标采样点的位置, 增强目标的特征提取能力, 提高复杂背景下SAR图像舰船目标的检测率。在多特征融合网络结构中采用级联和并列金字塔, 进行不同层级的特征融合。同时,使用空洞卷积扩大特征提取的视觉感受野, 增强网络对复杂背景近岸多尺度舰船目标的适应性, 降低复杂背景下SAR图像舰船目标检测的虚警率。通过在构建的复杂背景近岸舰船检测数据集上的测试实验, 结果表明: DFF-Yolov5的平均准确率为85.99%, 相比于原始的Yolov5, 所提方法平均准确率提高了5.09%, 精度提高了1.4%。  相似文献   

9.
导引头对舰船要害部位的精确检测能力是精确制导武器的核心技术之一。针对导引头对舰船要害部位检测精度低、模型参数冗余、相对运动导致舰船图像尺度、角度变化剧烈等问题, 提出了基于深浅层特征融合的舰船要害关键点检测算法。首先,采用多尺度特征融合模块融合不同感受野的有效信息; 其次,利用SoftPool池化改善下采样导致的信息损失, 利于区分相似关键点; 然后,引入深度可分离卷积降低参数冗余, 结合轻量化注意力机制增强有效特征表达; 最后,利用在线难例挖掘改善样本不均衡, 提升收敛效果。改进后的舰船要害关键点检测算法准确率提升4.4%, 算法兼具检测精度与速度优势, 鲁棒性较好。  相似文献   

10.
基于YOLOv5算法的侧扫声纳海底沉船目标检测方法虽然在检测精度和速度上取得了不错的成绩, 但是如何在复杂海洋噪声背景下进一步提高小目标检测的准确性、降低重叠目标漏警和虚警率的同时实现模型的轻量化是一个亟需解决的课题。为此, 本文创新融合DETR(end-to-end object detection with transformers)与YOLOv5结构, 提出了基于DETR-YOLO模型的轻量化侧扫声纳沉船目标检测模型。首先, 加入多尺度特征复融合模块, 提高小目标检测能力。然后, 融入注意力机制SENet(squeeze-and-excitation networks), 强化对重要通道特征的敏感性。最后, 采用加权融合框(weighted boxes fusion, WBF)策略, 提升检测框的定位精度和置信度。实验结果表明, 本文模型在测试集AP_0.5和AP_0.5∶0.95值分别达到84.5%和57.7%, 较Transformer和YOLOv5a模型大幅度提高, 以较小的效率损失和权重增加为代价取得了更高的检测精度, 在提升全场景理解能力和小尺度重叠目标处理能力的同时满足轻量化工程部署需求。  相似文献   

11.
针对地面场景下的红外目标检测易受复杂背景干扰、检测精度不高、易发生误检和漏检的问题, 以车辆红外特征为研究对象, 提出了基于全局感知机制的红外目标检测方法。在以Darknet-53为主干网络的基础上, 结合具有全局信息融合的空间金字塔池化机制, 在增大模型感受域的同时增强了模型的全局信息感知力和抗干扰能力; 设计了平滑焦点损失函数, 解决了图像内因目标相互影响而导致的检测精度不高、易出现误检、漏检等问题。实验表明, 在Infrared-VOC320数据集上, 该算法的平均检测精度为80.1%, 较YOLOv3提高了4.4%, 检测速度达到了56.4 FPS, 有效提高了复杂背景下红外目标的检测精度, 实现了对红外目标的实时检测。  相似文献   

12.
烟雾遮挡使基于图像的寻的制导系统目标识别困难,如何提高该类区域分割识别准确性、降低虚警率是一个亟待解决的课题。现有Deeplabv3+算法对烟雾分割时存在漏分割、错分割等问题,细节损失严重,整体分割精度低。本文提出基于改进Deeplabv3+模型的烟雾区域分割算法,创新异感受野融合的基于空洞卷积的金字塔构型(atrous spatial pyramid pooling, ASPP)结构,进一步扩大空洞卷积感受野,降低信息损失带来的不良影响;优化骨干网络,加入多尺度融合模块,降低网络参数量和计算量;引入通道注意力模块,强化对重点通道的特征学习能力,提高模型训练速度和分割精度。实验结果表明,改进Deeplabv3+模型在测试集中平均交并比为91.03%,分割效率为12.64帧/秒,分割效果远远优于传统模式识别算法;与Deeplabv3+基础模型相比,以较小的检测效率损失为代价取得了更高的分割精度,全场景理解和细节处理能力均有明显提升。  相似文献   

13.
传统合成孔径雷达(synthetic aperture radar, SAR)图像目标检测的方法依赖于人工设计特征且易受复杂背景干扰, 泛化能力较差。深度学习的方法可以自动提取特征且具有良好的抗干扰特性, 对于未来雷达智能感知具有重要意义。不同于其他只能对固定区域进行检测的常规卷积神经网络, 本文提出一种改进型YOLOv3的SAR图像舰船目标检测方法, 该方法基于舰船尺寸与形状自适应采样的可变形卷积、ResNet50变体特征提取器和ShuffleNetv2轻量化思想等设计YOLOv3模型。通过SSDD数据集验证, 在检测效果方面, 相较于原YOLOv3模型, 平均精度从93.21%提高至96.94%, 检测概率从95.51%提高至97.75%;在模型大小方面, 轻量化设计模型仅为原YOLOv3模型的八分之一, 可实现嵌入式的使用。  相似文献   

14.
针对当前舰船目标检测算法存在锚框遍历计算成本高和特征旋转适应性不足等问题, 提出基于关键点的遥感图像舰船目标检测方法, 通过预估舰船中心点实现目标检测。首先, 引入深度可分离卷积降低参数冗余, 结合SimAM无参注意力机制, 增强对舰船目标的关注度。其次, 引入方向不变模型(orientation-invariant model, OIM)生成方向不变特征图, 增强网络对旋转目标的适应能力。最后, 考虑到遥感图像舰船目标任意方向密集排列, 但舰船目标中心点不变的特点, 采用直接预测目标的中心点, 再回归偏移量、目标尺度和角度的思路, 摆脱锚框遍历机制, 提高检测速度。在HRSC2016和RFUE2021数据集上进行对比实验, 实验结果充分说明了本文方法的有效性和先进性。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号