首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到17条相似文献,搜索用时 328 毫秒
1.
姚善化  赵帅 《科学技术与工程》2024,24(10):4156-4164
车道线检测是辅助驾驶和自动驾驶的核心技术之一。为了进一步增强车道线特征的提取能力,提出一种基于深度学习的循环多特征信息融合车道线识别算法。针对模型计算效率问题,该算法将车道线检测问题视为基于行选择单元格的分类问题;针对图像中车道信息聚合问题,提出了一种新的循环多特征信息聚合(recurrent multi-feature information aggregator,RMFA)方法,并将该方法与残差神经网络(residual neural network,ResNet)相结合提出融合上下文及多通道信息的车道线识别网络ResNet-RMFA。将该网络模型在Tusimple和CULane公开数据集上进行了性能测试,实验结果表明该模型单帧图像的推理时间可达4.8 ms,在Tusimple数据集上的精确度为96.07%,在CULane数据集上的F1(IoU=0.5)评分为69.3%,达到了速度与精度的良好平衡。  相似文献   

2.
高扬  王晨  李昭健 《科学技术与工程》2021,21(24):10401-10406
车道线检测是实现当前汽车辅助驾驶和未来无人驾驶汽车的关键,深度学习技术在近年来迅猛发展,在图像识别、图像分割、语音识别及数据预测等方面都取得了出色成绩。结合深度学习技术对无人驾驶汽车环境感知中的车道线检测进行了相应的研究,提出一种基于深度学习的车道线识别算法。对比研究已有算法,针对其中的信息融合问题,提出了一种新的特征图上下文信息融合方法,将该方法与VGG(Visual Geometry Group)网络相结合提出融合上下文信息的车道线识别网络VGG-FF,进一步加入空洞卷积提出融合空洞卷积及上下文信息的车道线识别网络VGG-FFD。将该网络模型在公开数据集以及自制数据集上进行了性能测试,实验结果表明该模型具有良好的识别效果。  相似文献   

3.
针对经典霍夫车道线检测方法实用性较差,无法准确区分车道线和路沿与应用道路场景简单等问题,提出 了一种基于消失点和颜色过滤器的车道线检测算法,不仅提高车道线检测的准确率,而且能够应用较复杂行车场 景;首先,对行车视频连续五帧图像进行预处理,获取行车环境下车道线消失点位置,能够自适应选取行车环境图 像的感兴趣区域(Region of Interest,ROI);然后,对 ROI 图像根据车道线颜色特征进行过滤得到二值图像,获取二 值图像中所有连通区域质心和倾斜角等数据,通过结合消失点特征和角度阈值进行限制,筛选记录符合车道线特 征连通区域的数据,接着分割较大区域获取更多质心点,识别漏检符合车道线特征的区域质心点;最后,对获取的 质心点使用最小二乘法进行拟合并标识车道线;实验结果表明:算法能够在多场景道路上快速准确的检测出车道线,与经典霍夫算法进行仿真比较,算法具有一定的鲁棒性和实时性。  相似文献   

4.
针对在复杂的工况下车道线检测的鲁棒性和实时性较差等问题,本文通过融合边缘检测与多颜色空间阈值分割结果,进行车道线特征点的提取.结合车道线在鸟瞰图中的位置特点,提出了基于DBSCAN二次聚类(Reclustering based on Density-Based Spatial Clustering of Application with Noise,RC-DBSCAN)的特征点聚类算法.并以簇点是否进行二次聚类和Lab空间采样簇点的平均灰度值为依据,进行车道线线型和颜色的识别.使用最小二乘法对车道线进行拟合,通过基于可信区域的卡尔曼滤波算法对拟合后的车道线进行跟踪.最后在实际道路采集的视频与公开的数据集中进行了实验.实验表明,本文算法在复杂路况下对车道线检测的鲁棒性优于传统聚类算法,实时性能够满足实际需求;在结构化道路上,对车道线类型的识别也具有很高的准确率.  相似文献   

5.
经典的去雾算法无法满足车道线检测的实时性和准确性要求,因此提出一种改进暗通道与边缘检测融合的雾天车道线识别算法。首先对有雾图像进行对比度增强处理,突出边缘、颜色等有效信息,基于道路先验信息对图像进行感兴趣区域处理,利用暗通道先验算法对静态约束图像进行去雾操作,并通过双边滤波器细化透射率图,得到清晰的去雾图像;然后引入动态约束理念,提取车道线可能存在的区域,借助Sobel算子检测动态约束后的车道线区域,提取车道线边缘点;最后利用Hough变换进行准确的车道线拟合。实验表明,改进的去雾算法得到的图像清晰度与对比度更高,满足了车道线检测的准确性与实时性要求;去雾及车道线检测算法平均处理时间为297. 305 ms,满足无人驾驶时间要求。  相似文献   

6.
针对传统机器学习方法提取建筑物,耗时长和精度低的问题。文中选用深度学习中的SegNet语义分割模型进行算法改进,提出了一种基于稀疏约束SegNet的高分辨率遥感影像建筑物提取算法。首先对SegNet模型加入正则项和Dropout,大大降低了模型过拟合现象的发生;其次为了模型能够提取更丰富的语义特征,算法引入金字塔池化模块;最后对SPNet模型引入Lorentz函数稀疏约束因子,构造新的语义分割模型LSPNet.为了验证提出算法的可靠性和适用性,使用优化LSPNet模型对高分辨率数据集中的建筑物识别和提取。实验结果表明,该方法与传统机器学习方法相比较,有着快速收敛、精度高的优势,并且具有很好的应用前景。  相似文献   

7.
利用点云数据空间分布特征和回波强度信息,结合局部均值变点统计方法,提出了一种用于激光雷达数据帧的车道标线识别算法。该算法首先基于车载激光雷达采集的道路周围环境点云数据中高程信息进行滤波,确定可行驶区域。然后利用局部均值变点统计对可行驶区域点云数据中的回波强度值进行标记提取,即车道标线点云数据粗提取。最后基于EM(最大期望)方法聚类,从而完整、准确地识别车道标线。实验结果表明,该算法不仅能够准确定位可行驶区域,进而可以实现车道标线的自动提取;而且有效抑制了道路周围环境对车道标线识别的干扰,验证了算法的有效性。  相似文献   

8.
基于机器视觉和图像处理的夜间车道线检测一直是该领域的研究难题,即使是近年的深度学习方法,检测精度只能达到50%左右.为此,研究了一种新的算法,根据车道线的特点和车辆的行驶速度,将视频中多幅图像融合到一幅图像中;利用图像的特点,在区域合并中识别出有效的车道线检测区域;将有效区域分割成新的图像后,采用基于Frangi和Hessian矩阵的算法对图像进行平滑和增强;为了提取车道线的特征点,提出了一种新的分数阶微分模板进行车道线特征点检测,该算法根据车道线在图像中可能的位置,从4个方向检测特征点;在检测出候选点后,应用递归Hough直线变换得到候选车道线,为了确定最终的车道线,一条车道线的角度应介于25°~65°之间,而另一条车道线的角度应介于115°~155°之间,否则,通过降低线点数的阈值继续进行Hough直线检测,直到获得两条车道线为止.通过对数百幅夜间车道线图像的测试,并与深度学习方法和传统的图像分割算法进行比较,新算法的检测准确率可达70%.  相似文献   

9.
基于机器视觉和图像处理的夜间车道线检测一直是该领域的研究难题,即使是近年的深度学习方法,检测精度只能达到50%左右.为此,研究了一种新的算法,根据车道线的特点和车辆的行驶速度,将视频中多幅图像融合到一幅图像中;利用图像的特点,在区域合并中识别出有效的车道线检测区域;将有效区域分割成新的图像后,采用基于Frangi和Hessian矩阵的算法对图像进行平滑和增强;为了提取车道线的特征点,提出了一种新的分数阶微分模板进行车道线特征点检测,该算法根据车道线在图像中可能的位置,从4个方向检测特征点;在检测出候选点后,应用递归Hough直线变换得到候选车道线,为了确定最终的车道线,一条车道线的角度应介于25°~65°之间,而另一条车道线的角度应介于115°~155°之间,否则,通过降低线点数的阈值继续进行Hough直线检测,直到获得两条车道线为止.通过对数百幅夜间车道线图像的测试,并与深度学习方法和传统的图像分割算法进行比较,新算法的检测准确率可达70%.  相似文献   

10.
针对路面干扰时车道线检测鲁棒性差和消失点检测误差大的问题,提出了一种基于融合分割和消失点提取的车道线检测方法.对获取视频帧图像进行灰度化和高斯滤波处理之后,利用Canny边缘检测算法对图像进行边缘提取.以边缘点最多的一行作为上界划分预处理图像的动态感兴趣区域(ROI),结合大津算法(OTSU)分割出预处理图像的车道线背景,提取车道线信息.采用直线段检测(LSD)算法对ROI区域内车道线标志进行提取,并结合改进的消失点检测方法快速提取车道线.实验结果表明:所提出的方法对多场景下离线照片的平均正检率为97.16%,识别速度为34 ms/帧,能够很好地对多场景下车道线进行快速检测.  相似文献   

11.
针对传统Hough变换和最小二乘法的不足分别提出改进算法,并应用到车道线检测中,对道路图像进行预处理得到车道线的边缘点,对拟合车道线的两种方法进行改进,提高车道线检测的准确率和实时性。在实际检测中,设计一种结合改进Hough变换和双点去除R-最小二乘(R-least squares with dual removal,R-LSDR)法的检测算法,并运用Kalman滤波器跟踪车道线,在实车采集的道路图像序列上进行初步测试。实验结果表明,优化的车道线检测算法提高了检测准确率和运行效率。  相似文献   

12.
高精度地图是实现自动驾驶技术必不可少的基础设施,车道线是高精度地图车道级路网的重要组成部分。以往高精度地图的车道线检测多基于车载摄像头数据,存在成像范围有限、需要透视变换和多次拼接造成的效率问题。基于无人机航拍影像,采用U-Net网络识别道路区域,过滤非道路区域噪声,通过HSL颜色变换和Sobel算子分别计算车道线颜色和边缘梯度特征,使用Otsu算法自动确定特征分割阈值获得二值化车道线特征图,通过局部最大值算法确定滑动窗口的初始位置,最后借助滑动窗口算法和多项式检测拟合车道线。实验结果表明,在保证一定检测精度的前提下,单条车道线检测长度超过了百米,道路检测效率达到25.2 m/s,对比于地面影像的检测算法具有明显的效率优势。  相似文献   

13.
针对现有结构化道路车道线弯道检测识别技术的准确性和鲁棒性不高的问题,提出一种基于改进Hough变换的车道线识别方法。首先利用Canny边缘算子进行车道边缘检测,其次对比相邻区域距离内的Hough变换峰值参数值,将小于设定阈值距离的直线段进行连接,拟合形成车道线检测区域,然后根据消失点的横坐标距离图像中心点的位置来预测车道线方向,最后借助MATLAB平台完成车道线的识别。验证结果表明:该方法避免了曲线模型复杂、计算量大的缺点,实现了直、弯车道的识别统一化,识别准确率为95.3%,平均耗时0.036s,具有很好的实时性和鲁棒性。  相似文献   

14.
面向校园驾驶场景,提出一种综合性能表现较好的通用车道线检测算法,即局部定位检测法。 首先,采用经典图形学与基于噪声容忍的递归神经网络的学习模型相结合的方法,完成车道线所在局部区域 的检测,对目标车道线的灰度图像进行霍夫变换和灰度拉伸,设计递归神经网络学习模型,以梯度数据作为引导,对算法模型训练学习,以排除梯度信息相似的干扰物,并识别几何属性相关的不完整车道线形态,进而完成补全工作,应用稀疏惩罚,设计具有噪声容忍的递归学习模型,最大效率地利用具有被污染数据标注的 自建车道线图像数据集,以此为基础,采用深度强化学习方法,通过6个标识点对目标车道线进行精确定位, 并基于6个准确的定位点,检测和绘制车道线。  相似文献   

15.
针对传统Hough变换虚线检测率不足的问题,提出一种多阈值Hough变换车道线检测算法。该算法在对图像进行灰度化处理、逆透视变换、二值化处理的基础上,在预设好的多条直线位置进行突变点检测,并对突变点进行分类、拟合、合并,最后进行Hough变换。3种实际路况的实验表明,该算法能够较准确、稳定地检测出车道线,平均识别率达到9870%,高于传统Hough直线检测算法的平均识别率(86.84%),而且可通过计算车道线线段的长度和点的个数来判断虚线和实线。  相似文献   

16.
针对现有铁路人员入侵识别准确率不高、实时性较差的问题,在YOLOv4模型的基础上提出一种R-YOLO轨道人员目标检测模型。首先,用轻量级骨干网络ResNet50代替原有的CSPDarknet53网络,利用深度可分离卷积替代PANet中的标准卷积,减少网络层数以及模型体积,加快模型的识别速度。其次,在加强特征提取网络的3个特征层分别加入有效通道注意力模块,采用K-means++聚类算法重新对数据集进行聚类和分析,提高目标检测模型的精度;在模型训练方面,采用迁移学习和混合数据集联合训练,解决人员识别精度不理想以及误检漏检等问题。最后,利用R-YOLO轨道人员目标检测模型对真实铁路人员入侵数据集进行测试。结果表明,R-YOLO模型在真实铁路人员入侵数据集上的平均识别精度达到了92.12%,较传统YOLOv4算法高出1.89%,帧速率由38.74 f·s-1提升到47.73 f·s-1。R-YOLO模型部分解决了铁路入侵人员误检漏检问题,提高了铁路人员入侵识别的实时性和准确率,为铁路安全运行提供了保障。  相似文献   

17.
为了提高鱼产品加工过程中鱼鳃切口点定位的准确度,采用改进的更快的卷积神经网络特征区域(faster convolution-al neural network feature region,Faster RCNN)对淡水鱼的鱼鳃部位进行检测和定位.首先,为了增强主干网络VGG16的特征提取能力,加入批归一化(batch normalization,BN)层对其进行结构优化,提高了网络识别的准确率.其次,当物体处于预设的交叉阈值范围时,非最大值抑制(non-maximum suppression,NMS)算法存在目标漏检的问题.采用Soft-NMS算法替代NMS算法,增强了目标检测的性能.通过在淡水鱼数据集进行的实验结果表明,改进的Faster RCNN网络对鱼鳃切口定位准确率达到了96%,较未改进网络提高了6%,为后续生产线中鱼鳃的精准切割奠定了基础.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号