首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 15 毫秒
1.
为了提升前方车辆测距精度,提出了一种基于改进目标检测(SSD)算法的车辆检测与测距方法。采用场景仿真软件PreScan搭建测试场景,使用改进的SSD算法,对摄像头采集的视频进行车辆目标检测。将检测框下边缘的中心点坐标作为图像中车辆坐标,根据单目视觉测距算法进行车辆目标测距。实验结果表明:在网络阈值为0.9时,改进的SSD算法对小车辆目标检测精度提升了6.6%。可以检测到70 m左右的目标,提出的测距方法可以达到2%的精度。  相似文献   

2.
针对目前自动驾驶领域的目标检测算法在交通场景下的漏检目标,目标定位不精确、目标特征表达不充分及目标识别效果欠佳等问题,提出一种基于TPH-YOLOv5的道路目标检测方法。首先为了减轻物体尺度急剧变化带来的漏检风险,增加了用于微小物体检测的检测头,为在高密度场景中精确定位对象,使用Transformer预测头来捕获全局信息;其次为了增强模型的特征表达能力,用SIMAM模块对卷积层的输出进行加权;最后,为了提高目标识别的精度,网络颈部增加了4个SPP块来进行多尺度融合,为了加快收敛速度和提高回归精度采用EIOU作为边界框损失函数。通过消融、对比和可视化验证实验表明,提出的算法比YOLOv5在平均精度上提高了8.1%,漏检率明显减少,目标检测效果明显增强。  相似文献   

3.
针对单一任务模型不能同时满足自动驾驶多样化感知任务的问题,提出了一种基于改进YOLOv5s的快速端到端道路多任务感知方法。首先,在YOLOv5s网络输出端设计两个语义分割解码器,能够同时完成交通目标检测、车道线和可行驶区域检测任务。其次,引入Rep VGG block改进YOLOv5s算法中的C3结构,借助结构重参数化策略提升模型速度和精度。为了提升网络对于小目标的检测能力,引入位置注意力机制对编码器的特征融合网络进行改进;最后基于大型公开道路场景数据集BDD100K进行实验验证该算法在同类型算法的优越性。实验结果表明,算法车辆平均检测精度为78.3%,车道线交并比为27.2%,可行驶区域平均交并比为92.3%,检测速度为8.03FPS,与同类型算法YOLOP、Hybrid Nets对比,该算法综合性能最佳。  相似文献   

4.
图像或视频中的人员目标检测,一般采用单个深层神经网络检测器(SSD)算法.但在复杂场景下,SSD算法因场景复杂、物体重叠、遮挡等干扰,检测精度大大降低.在SSD算法中加入反卷积网络反馈用于增加环境感知信息;采用辅助损失函数以促进损失降低,并将复杂场景中的目标检测多分类问题转换为二分类问题.以无人机拍摄的复杂场景下的行人数据集为例进行人员目标检测实验,对比分析多种检测方法的准确率表明,改进后的SSD算法在检测速度和识别精度上均提高明显.  相似文献   

5.
针对在自然交通场景中道路不同种类目标的边界框大小差异巨大,现有实时算法YOLOv3无法很好地平衡大、小目标的检测精度等问题,重新设计了YOLOv3目标检测算法的特征融合模块,进行多尺度特征拼接,对检测模块进行改进设计,新增2个面向小目标的特征输出模块,得到一种新的具有5个检测尺度的道路目标多尺度检测方法YOLOv3_5d.结果表明:改进后的YOLOv3_5 d算法在通用自动驾驶数据集BDD100 K上的检测平均精度为0.5809,相较于原始YOLOv3的检测平均精度提高了0.0820,检测速度为45.4帧·s-1,满足实时性要求.  相似文献   

6.
针对目前全局视觉定位算法无法对外形变化较大的自动导引运输车(Automated Guided Vehicle,AGV)进行定位的问题,提出了一种基于移动目标检测和目标追踪的定位方式.选用基于高斯混合模型的背景建模法进行移动AGV检测,当初始选择框太大时采用显著性目标检测方式进一步提高精度,将移动目标检测与目标追踪相结合完成了AGV的定位.实验结果表明,本文设计的定位算法满足实际定位需求,可应用于车间物流AGV.  相似文献   

7.
单次多边界框检测器(single shot multibox detector, SSD)算法因其性能优良已被应用于许多场景中,但该算法对小目标物体的检测精度偏低,主要原因是高层的语义信息没有被充分利用。为解决该问题,文章将其基础网络替换为残差网络(residual network, ResNet),同时融合深浅层的特征信息来增强浅层特征图的语义信息,此外还引入注意力模块,保留更多的目标特征信息,抑制无关信息,进一步提升对小目标物体的检测效果。在PASCAL VOC2007数据集上进行实验测试,平均精度均值为80.2%,优于其他SSD改进算法。由于增加了特征融合和注意力模块,所提算法检测速度有所下降,但相比于SSD改进算法,检测速度仍有明显的优势。  相似文献   

8.
为了更好地应对多目标跟踪联合检测算法面对的场景遮挡问题,通过结合注意力机制,提出基于Transformer的运动预测和数据关联(Transformer-based motion prediction and data association,TrMPDA)联合检测跟踪方法。首先,考虑到置信度检测框的质量以及深度特征的视觉表示能力对遮挡场景下跟踪效果的影响,重新设计TrMPDA骨干网络中的ResNet卷积模块,利用相邻像素和长距离像素间丰富的上下文关系指导动态注意矩阵的学习,增强深度特征的视觉表示能力,并通过边界框的宽和高估计边界框位置,提高置信度检测框的质量。其次,在本文方法中保留所有的检测框,根据阈值大小划分高置信度检测框和低置信度检测框,分别执行数据关联匹配,以此来平衡由于遮挡导致的检测框低置信度。实验结果表明本文提出的TrMPDA方法与典型的Sort、JDE、Fairmot等多目标跟踪算法相比具有更好的跟踪效果,能够应对多目标跟踪中目标遮挡的问题。  相似文献   

9.
针对传统的行人车辆目标检测算法因参数量大和计算复杂度高而在现实应用中受限的问题,基于轻量化深度学习网络提出改进的YOLOv5s行人车辆目标检测算法.首先,选用ghost模块替换主干网络中部分卷积模块进行模型剪枝,同时向网络中引入注意力机制,使得网络在减少模型参数量和提升模型性能两方面实现更好的平衡;其次,采用边界框的宽高差值计算代替边界框回归损失函数中宽高比距离的计算,加速网络的收敛;最后,通过构建真实交通场景下的行人车辆目标检测数据集检验模型的准确性和实时性.实验结果表明,在保持原算法较高精度的同时,改进后YOLOv5s算法的参数量下降28%,模型大小降低27%,节省了硬件成本,拓宽了YOLOv5s算法的应用场景.  相似文献   

10.
一种基于视觉的车道线检测与跟踪算法   总被引:3,自引:1,他引:2  
提出了一种新颖的适用于自主驾驶系统的车道线检测与跟踪算法.该算法采用了广义曲线的车道线参数模型,能同时适应弯道和直道的检测.该检测算法最突出的贡献在于,没有仅仅使用单一方法求解各个参数,而是根据各参数的不同精度要求,分别使用自适应随机霍夫变换(ARHT)方法和禁忌搜索算法计算车道线模型中的各个参数,这样既准确计算车道线模型中的参数,也兼顾了车载系统的实时性要求.此外,为了提高算法的实时性,引入了多解析度的策略,以降低整个流程的时耗.最后,为了满足自主驾驶系统对稳定性的需求,还提出了一种基于粒子滤波器的跟踪算法.通过不同场景下进行的实验,充分表明提出的车道线检测与跟踪算法具有良好的鲁棒性和实时性,同时对不同的光照条件也有较好的适应性.  相似文献   

11.
为提高自动驾驶中的道路目标检测精度,设计了一种基于YOLOv5的道路目标检测模型。该模型在YOLOv5s的网络模型基础上,将原始的初始锚框聚类算法改为K-means++算法来减小随机带来的聚类误差;并在Backbone中SPP模块之前引入SENet注意力机制,以增强道路目标重要特征并抑制一般特征,达到提高检测网络对道路目标的检测能力。在VOC2012改进数据集上训练、测试,基于改进的YOLOv5s的模型比原始YOLOv5s模型平均准确精度提高了2.4%。实验结果表明,改进的YOLOv5s模型能较好地满足道路目标检测的精度要求。  相似文献   

12.
针对人工湖中的水面漂浮物检测问题,提出了一种基于改进YOLOv3的水面漂浮物目标检测算法,目标检测包括目标识别与目标定位.首先通过改进的k-means聚类算法获取先验框,以提高定位框与数据集标注框的匹配度,其次在YOLOv3算法框架的3个预测支路中添加类别激活映射(CAM),将原基于边界框的定位方式替换成基于像素点进行定位.实验结果表明:改进的YOLOv3算法提高了识别精度,降低了定位误差.识别精度为97.49%,比YOLOv3算法提高5.14%,平均定位误差为2.60个像素点,比YOLOv3算法减小了1.36.  相似文献   

13.
针对密集场景下行人检测的目标重叠和尺寸偏小等问题,提出了基于改进YOLOv5的拥挤行人检测算法。在主干网络中嵌入坐标注意力机制,提高模型对目标的精准定位能力;在原算法三尺度检测的基础上增加浅层检测尺度,增强小尺寸目标的检测效果;将部分普通卷积替换为深度可分离卷积,在不影响模型精度的前提下减少模型的计算量和参数量;优化边界框回归损失函数,提升模型精度和加快收敛速度。实验结果表明,与原始的YOLOv5算法相比,改进后YOLOv5算法的平均精度均值提升了7.4个百分点,检测速度达到了56.1帧/s,可以满足密集场景下拥挤行人的实时检测需求。  相似文献   

14.
针对复杂驾驶场景下的目标检测问题,提出一种基于扩张卷积特征自适应融合的目标检测算法.采用单阶段目标检测网络RetinaNet作为基本框架,其包含卷积特征提取、多尺度特征融合以及目标分类与回归子网.为提高网络对多尺度特征的提取能力,设计了基于不同扩张率组合的残差卷积分支模块,以获取不同感受野下的目标特征图;然后,将不同尺度下的特征通过网络自适应学习的参数融合后输出,用于后续的目标预测;最后在大规模且多样化的复杂驾驶场景数据集BDD100K上进行实验.结果 表明,利用扩张残差卷积分支模块与特征自适应融合算法能够分别将网络的平均精度均值由0.330提升至0.338与0.344,并在采用扩张卷积特征自适应融合的情况下达到了0.349.所提算法能够有效提升目标检测算法在复杂驾驶场景下的检测性能.  相似文献   

15.
基于区域的网络Faster R-CNN算法在图像的目标检测领域取得了巨大突破.相比较于传统的目标检测方法R-CNN和Fast R-CNN,Faster R-CNN提出了一种候选区域网络(RPN)有效的提升了检测候选框的生成速度.本文通过分析提出的RPN网络的实现方法,引用了K-Means++聚类算法,来对训练数据集中的目标框大小进行聚类分析,替代原本算法中的9个区域框.通过实验对比分析,通过改进的方法提高了车辆检测的精度.  相似文献   

16.
由于高分辨率遥感图像存在目标排列密集、尺寸差别大等情况,传统算法难以准确地对其进行目标检测。在YOLOv3算法的基础上,提出一种改进的高分辨率遥感图像目标检测算法(remote sensing-YOLO,RS-YOLO)。利用K-means聚类算法对数据集进行聚类,重新设计适合遥感图像的先验框; 引入高斯模型计算预测框的不确定度,以提高网络对预测框坐标的准确度; 使用弱化的非极大值抑制算法(soft non-aximum suppression,Soft-NMS)对预测框进行处理,增强算法对密集排列目标的检测能力。实验结果表明,改进后的算法能够对高分辨率遥感图像进行有效的目标检测,以NWPU VHR-10数据集为例,RS-YOLO的平均检测精度达到了87.97%。  相似文献   

17.
随着卷积神经网络的发展,目标检测算法成为计算机视觉领域的研究热点,基于深度学习的实时目标检测算法需要同时兼顾检测精度和检测速度两项指标.不基于先验框的实时目标检测算法CenterNet大幅提高了检测速度,但是由于其直接对低分辨率高层特征进行连续上采样,没有充分补充特征在下采样过程中丢失的空间细节信息,导致算法对目标定位...  相似文献   

18.
提出了基于序贯蒙特卡罗概率假设密度滤波器( SMC -PHDF)的视觉多目标跟踪算法.W4算法对观测场景进行背景建模和运动目标检测,获取可能目标在观测场景中的位置信息作为PHDF的输入.SMC-PHD滤波器对检测结果进行滤波,实现对观测场景中运动目标数量和目标状态的估计.传统SMC-PHDF由于不对目标进行标记避免了数...  相似文献   

19.
无人机技术的不断成熟,使得搭载高效视觉系统的无人机应用也更加广泛。针对无人机航拍图像中小目标较多、分辨率低等原因导致的检测精度不高的问题,提出了一种改进RetinaNet的无人机航拍目标检测算法。算法针对特征图中小目标信息提取不足的问题,设计了多阶段特征融合方法,并将其与注意力机制串联设计了特征挖掘模块,可以在浅层特征图中融入深层的语义信息,丰富小目标特征;设计了基于中心点检测的无锚框(Anchor-free)方法,网络通过对中心点的回归来定位目标,而不是通过固定大小的锚框去匹配,这样做可以使网络对小目标的回归更加灵活,提高了算法的整体性能;且通过深度可分离卷积方法对网络进行轻量化设计,以压缩模型大小并提高检测速度。实验结果表明,改进算法较原RetinaNet算法平均精度提升了8.5%,检测速度提升了6帧/s,且与其他先进算法相比也具有性能优势,达到了检测精度与检测速度的均衡。  相似文献   

20.
多尺度滑动窗口是众多目标检测方法采用的搜索策略,但数量巨大的窗口(约十几万的量级)使得计算复杂度大大增加,降低了算法的有效性。为此,候选框算法替代滑动窗口方法被应用于目标检测中。分析评价候选框算法在车辆检测中的应用效率。构造了图像规模为1000的车辆数据集。采用此数据集,研究分析了Edge boxes算法、Selective search算法和Objectness算法的召回率和计算效率。根据场景和光照条件,选取了阴影场景、拥堵场景、夜间场景来分析不同算法的性能并探讨了其局限性。实验结果证明,Edge boxes算法在整体数据集中性能最优,召回率为0.91。但其在夜间场景中仅为0.4左右,此类场景下算法性能并不理想。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号