首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 15 毫秒
1.
2.
为避免复杂场景中的干扰因素影响非显著目标跟踪准确度,提出基于虚拟现实的复杂场景非显著目标跟踪方法。通过中值滤波设置图像窗口大小,统计相邻像素点最大中值,定义复杂场景特征区间。基于虚拟现实技术转换跟踪平面三维信息,利用正交原理计算空间位置,对应区间目标坐标。设定模糊逻辑集合,采用最大隶属度量方法构建隶属度函数,在复杂场景内跟踪非显著目标,完成非显著目标跟踪。设定多组目标跟踪场景,分别在影响因素较少、光感条件变化强烈、快速运动过程中和遮挡干扰背景五组条件下,测试非显著目标跟踪效果。实验结果表明,所提方法在上述设定中均可以完成准确跟踪,定位得到目标物。  相似文献   

3.
无人驾驶车辆在结构化道路中需要通过车道线判断自身位置,为提高其检测的实时性与准确性,本文提出一种利用改进SegNet网络算法与连通域约束相结合的方法实现车道线检测识别。将对称的SegNet网络算法改为非对称结构对车道线作逐像素提取:利用卷积与池化提取车道线特征,摒弃传统的车道线聚类过程,利用二值化图像结合连通域约束与关联对车道特征点进行分类,最后对相同类别的车道特征点进行车道线拟合。该算法在香港中文大学的 CULane 数据集和图森未来的TuSimple数据集上进行了训练与测试,该算法对车道分割准确、实时处理能力优秀,检测识别效果优于传统SegNet网络算法,其平均检测精度为 94.60%,每帧检测耗时提升53毫秒。  相似文献   

4.
在车道线检测任务中,由于车道线的特点和获取更大范围感受野的需求,空洞卷积被广泛使用.然而,为了获取大范围信息,空洞卷积会造成卷积点附近信息的丢失.针对以上问题,提出了一种基于多尺度复合卷积和图像分割融合的车道线检测算法.首先将不同尺寸的空洞卷积、全卷积和标准卷积结合以弥补空洞卷积造成的信息丢失;然后通过语义分割和实例分割融合的图像分割融合模块来增强实例分割网络对全局特征的关注;最后,设计一个加权交叉熵损失函数对网络进行训练和优化.实验结果表明,算法在CULane数据集中的整体F1measure取得74.9%,整体性能优于比较算法,在多种挑战性环境中均有所提升.  相似文献   

5.
车道线检测是推动辅助驾驶和无人驾驶技术实现的重要因素.介绍车道线检测技术的应用和发展,列举部分车道线检测算法,对其研究现状进行综述;评述传统方法和深度学习方法的优缺点,系统地阐述深度学习对车道线检测领域的贡献;最后分析车道线检测方法目前存在的难点,对其未来的研究方向进行展望,为今后车道线检测技术的学习和发展提供参考.  相似文献   

6.
7.
针对边缘检测算子对噪声敏感的缺点,提出了一种新的基于阈值分割的形态学道路标识线的检测方法.仿真结果表明,这种方法保留了更多的图像细节,具有更强的去除噪声能力,可以有效地从道路图像中检测道路标识线。  相似文献   

8.
实例点网络(point instance network, PINet)在物体遮挡、光照变化和阴影干扰等场景中检测准确性高,但实时性表现不佳.在保证PINet模型精度的前提下,为提升网络的推理速度,提出一种结合循环特征移位聚合器(recurrent feature-shift aggregator, RESA)算法的车道线检测模型.通过算力分析,只采用1个瓶颈网络(bottle-neck)作为预测网络(predicting network),目的是为了去除冗余的多尺度操作,以加快模型的推理速度.为了弥补模块剪枝造成的精度下降,引入了RESA模块以捕获图像中跨行、列的空间信息,增强骨干网络提取到的车道线特征.将改进后的模型在Tusimple、CULane、Custom数据集上进行测试.结果表明:改进后的网络模型在物体遮挡、光照变化、阴影干扰等多种复杂场景下表现突出,对车道分割准确率、实时处理速度有大幅改善,检测识别效果优于传统PINet网络算法,除F1指标提升较小外,推理速度在3个数据集下分别提升20.3%、52.9%及13.9%.  相似文献   

9.
包含目标识别与边界框选定的目标检测是无人驾驶视觉感知中的关键技术之一。采用基于深度计算机视觉组网络(VGGNet)的新型单次多框检测算法(SSD)进行驾驶环境中的关键目标检测、语义标注和目标框选;同时,针对具体驾驶场景,提出了改进的SSD_ARS算法。通过优化梯度更新算法、学习率下降策略和先验框生成策略,在提高平均检测精度的同时使得小目标类别的检测精度得到明显提升。在实际驾驶场景中9类关键目标的检测实验上验证了本文算法的有效性,实验结果表明,检测速度满足实时检测需求。  相似文献   

10.
SLAM技术在移动机器人巡检领域得到广泛应用,但对于环境特征单一的大型室内场景,SLAM技术的定位建图效果不能满足实际需求.针对大型仓库下移动机器人巡检问题提出基于车道线检测的移动机器人巡线方法.在HSV颜色空间下,首先采用多阈值叠加方法对采集的实时视频图像进行颜色阈值分割;然后通过霍夫变换与过滤得到与车道线唯一贴合的直线;最后通过该直线参数矫正移动机器人运动时的方向.试验结果表明:基于HSV阈值分割的车道线检测方法能有效检测车道线,正确率可达99.81%;该方法可使移动机器人正确调整运动方向,调整成功率可达93.33%.  相似文献   

11.
为满足无人驾驶车辆对越野环境的适应能力,提高无人驾驶车辆对环境的理解能力,必须对环境感知层面提出更高的要求.而环境感知中最为关键的一点就是车道线提取或者路面提取.与城市环境下的结构化道路相比,越野环境下的路面提取更加复杂.综合对多种越野场景展开研究,提出了一种能够自适应场景变化的路面分割方法.文中在越野环境下采集了大量的数据,并且制作了相应的数据集;应用深度学习技术对这些场景进行识别;应用语义分割算法对不同场景下的路面进行分割;最后统一了整个算法模块,给出测试结果.   相似文献   

12.
针对具有杂乱背景图像的显著目标检测问题,提出了一种无需任何先验知识,通过分析计算区域平均显著值的对比度来提取显著目标的方法.根据显著图,计算出显著目标的最小边界框与其周围区域的显著性差异,且通过折半查找的方法加快搜索的收敛速度.结果表明,该算法能迅速检测出与人类视觉感知结果一致性较高的显著目标区域.  相似文献   

13.
在对海面目标红外图像理论模拟的研究中,已经能分别计算出目标和海面大气背景的红外图像,作者研究了在此基础上用数值方法模拟海面目标和海天背景合成的红外图像的计算原理和方法,编制了生成合成红外图像的计算软件并计算了某舰的模拟热像。  相似文献   

14.
为了弥补场景建模存在的缺陷,提出了一种从场景描述到场景目标模型的建模方法。介绍了场景描述语言的一些规则,对场景进行完整性检查,给出场景转化成目标模型的方法以及对该方法进行场景建模的评价。  相似文献   

15.
针对复杂驾驶场景下的目标检测问题,提出一种基于扩张卷积特征自适应融合的目标检测算法.采用单阶段目标检测网络RetinaNet作为基本框架,其包含卷积特征提取、多尺度特征融合以及目标分类与回归子网.为提高网络对多尺度特征的提取能力,设计了基于不同扩张率组合的残差卷积分支模块,以获取不同感受野下的目标特征图;然后,将不同尺度下的特征通过网络自适应学习的参数融合后输出,用于后续的目标预测;最后在大规模且多样化的复杂驾驶场景数据集BDD100K上进行实验.结果 表明,利用扩张残差卷积分支模块与特征自适应融合算法能够分别将网络的平均精度均值由0.330提升至0.338与0.344,并在采用扩张卷积特征自适应融合的情况下达到了0.349.所提算法能够有效提升目标检测算法在复杂驾驶场景下的检测性能.  相似文献   

16.
深度卷积网络是解决分类问题的一种有效手段,但行人检测任务并不能通过分类来直接实现.为了在行人检测问题中进一步发挥深度卷积网络的优越分类性能,在实拍场景下,针对平直道路的情况,提出了一种基于摄像机安装位置和摄像机参数的感兴趣区域分割方法,合理利用先验知识和规则,对行人在图像当中可能出现的位置,以及不同位置上行人的尺度大小给出限制,从而系统仅对可能发生危险的区域进行搜索,避免了传统方法中多尺度遍历搜索整副图像的弊端.在此基础上,将危险区域所得的候选目标窗口作为待检测样本传送到构建好的深度卷积网络中进行分类,完成行人检测任务.实验结果表明,所研究的算法在一定距离内达到了预期的检测效果.  相似文献   

17.
针对当前智能车辆检测算法在实际应用中存在误差、测量结果不够准确等问题,使用基于运动车辆中车底阴影线算法的车辆检测机制,并利用车底阴影稳定存在特征解决车辆检测问题,进一步基于机器视觉的双目立体匹配测距方法实现对前方最近车辆距离测量,为智能车辆及驾驶员辅助系统提供信息。笔者采用的车底阴影线方法及双目测距最终实现结果证实,可以获取较为精确的道路前方的车辆及距离信息,有效检测距离为10 ~ 50 m,整体识别率达到85%。  相似文献   

18.
提出了一种基于点监督的弱监督显著目标检测方法,设计了一种自适应的掩膜洪水填充算法来生成伪标签,并利用了一个基于变换器的点监督显著性检测模型来生成第1轮的显著图。然而,由于标签的稀疏性,弱监督检测模型往往退化为通用的前景检测模型。为了解决这个问题,进一步提出了一种利用非显著抑制方法修正第1轮中生成的显著图,并利用它们进行第2轮微调。实验结果表明,在ECSSD和PASCAL-S数据集上分别取得了0.035 8和0.064 7的MAE,验证了该方法的有效性。  相似文献   

19.
针对复杂背景环境下图像场景理解及分类中遇到的诸多难题,提出了一种模拟生物视觉感知的新的图像场景特征提取方法.该方法采用方向、颜色和亮度三种感知特征来构造视觉显著图,并对基本单元进行最大化处理来得到更加精确的方向信息.为了提高特征提取的速度,设计了区域分割算法,然后构造分割区域描述子,最后通过SVM对特征向量集合进行无监督分类以实现显著区域匹配.与传统方法相比,该方法提取的特征对于一定程度的仿射和光照变化具有良好的不变性,同时具有较好的分类效果.实验结果表明上述方法能够较好地应用于场景分类及检索,并具有较强的时效性.  相似文献   

20.
障碍物检测是无人驾驶车辆环境感知重要的组成部分,语义分割技术能够对障碍物进行像素级检测。为满足无人车系统的实时性要求和对障碍物检测精度要求,提出了一种轻量级语义分割模型。该模型构建了特征提取块,通过跳跃层结构将底层级特征与高层级特征相融合,用于提取更加细化的图像特征信息。运用深度可分离卷积代替标准卷积操作,减少了模型参数量和计算量。利用不同膨胀率的膨胀卷积以获取多尺度目标信息,在上采样时融合不同尺度的特征信息,使得语义信息更加丰富。试验结果表明:提出的轻量级语义分割模型在Cityscapes数据集和ApolloScape数据集上取得了较好的障碍物检测结果,同时也满足无人车的实时性要求。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号