首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 15 毫秒
1.
通过传统图像处理方法将航拍图片旋转后进行前景分割、计算轮廓和生成标识框的方法增加训练样本中不同拍摄视角下样本的数量,使得训练样本具有更全的代表性。算法方面针对小目标检测,通过在原有YOLO目标检测算法的基础上加入图像超分辨率功能形成SR-YOLO网络模型,并对原网络模型中的归一化层和残差层层数进行调整。应用SR-YOLO网络模型使用经过旋转扩充后的数据集进行训练,得到"人"的目标检测模型。通过实验数据分析,此模型在航拍场景下目标的识别率较原网络结构有所提升。  相似文献   

2.
跑道的准确识别与跟踪,是基于视觉的无人机自主着陆的重要条件.利用单目视觉获取进近着陆过程中实时跑道序列图像,经过Canny边缘检测算法和基于梯度方向的Hough变换处理,将同一跑道上的2条边缘线识别出来,并进行实时跟踪.最后利用大量真实的室外道路模拟跑道图像,以DM642为核心处理器设计视觉处理系统,结合固定翼无人机进近阶段着陆飞行特点,对设计的相关算法及视觉系统进行验证.结果表明所设计方法可以在进近着陆阶段准确提取跑道目标,并能够满足无人机着陆实时性要求.  相似文献   

3.
基于单目视觉的移动机器人导航方法   总被引:4,自引:0,他引:4  
针对光照强度大范围变化的室外复杂道路环境下移动机器人视觉导航问题,提出了一种新的基于彩色图像处理的单目机器人导航方法。对于预先设置的引导轨线和停靠位标识,通过HSI模型对图像进行颜色分割和数学形态学处理,提取出导航目标和识别停靠位标识,并用“采样估算”的方法计算导航参数。实验表明此方法获取的导航参数受光照和地面环境的影响不大,且偏离导航线误差较低,具有较好的实时性和鲁棒性。  相似文献   

4.
针对无人机自主着陆视觉导引相关算法研究和验证困难的问题,提出了一种基于Flightgear和Matlab的多机组网联合仿真技术,设计并建立了固定翼无人机自主着陆视觉导引仿真系统.系统中Flightgear渲染的摄像头视角图像数据通过HDMI视频接口实时传递到Matlab中;摄像头的内参数可通过虚拟棋盘格标定得出.利用该系统进行了基于合作目标的无人机视觉导引着陆闭环仿真实验,证明该系统能够验证无人机视觉着陆方法、算法的正确性及可行性.  相似文献   

5.
基于路标的移动机器人视觉导航的基础上,提出了一种基于边缘点数量统计和FCM(Fuzzy C-means)聚类的路标图像分割方法。在对分割后图像进行维纳滤波,二值化等预处理的基础上,完成了数字路标的识别。通过实验证明,该算法能实时地完成数字路标的分割和识别,有效地应用于移动机器人的视觉导航。  相似文献   

6.
一种机器人导航中数字路标的分割和识别方法   总被引:2,自引:0,他引:2  
基于路标的移动机器人视觉导航的基础上,提出了一种基于边缘点数量统计和FCM(Fuzzy C-means)聚类的路标图像分割方法.在对分割后图像进行维纳滤波,二值化等预处理的基础上,完成了数字路标的识别.通过实验证明,该算法能实时地完成数字路标的分割和识别,有效地应用于移动机器人的视觉导航.  相似文献   

7.
机器视觉在农田自动导航中发挥着越来越重要的作用,本文在分析农田图像的特点后,利用EXG对RGB图像进行灰度化。在分析各种分割算法的基础上,提出了基于亮度的分割算法。通过对不同时期的农田图像进行处理,证明该算法简单,速度快,可以满足导航中目标提取的实时性需求,同时具有一定的通用性。  相似文献   

8.
在基于视觉导航的自主着降过程中,旋翼无人机受到自身机械振动和复合风场环境等因素的干扰,降落精度低、速度慢,影响集群回收的安全性。针对这一问题,提出一种基于模糊控制和视觉导航的集群自主着降算法。首先无人机集群飞至降落区域后,无人机通过目标检测算法找到自身对应的降落标识,再利用像素距离解算出无人机与对应降落标识间的实际水平距离,然后通过模糊化、模糊推理、去模糊化得到无人机精准对准降落点的控制指令,最终实现集群精准着降。仿真实验与实际飞行实验结果表明,该算法具有更高的鲁棒性,可有效提升无人机集群着降的速度。  相似文献   

9.
编者按          下载免费PDF全文
在基于视觉导航的自主着降过程中,旋翼无人机受到自身机械振动和复合风场环境等因素的干扰,降落精度低、速度慢,影响集群回收的安全性.针对这一问题,提出一种基于模糊控制和视觉导航的集群自主着降算法.首先无人机集群飞至降落区域后,无人机通过目标检测算法找到自身对应的降落标识,再利用像素距离解算出无人机与对应降落标识间的实际水平距离,然后通过模糊化、模糊推理、去模糊化得到无人机精准对准降落点的控制指令,最终实现集群精准着降.仿真实验与实际飞行实验结果表明,该算法具有更高的鲁棒性,可有效提升无人机集群着降的速度.  相似文献   

10.
针对基于视觉注意模型的检测算法只能检测到图像中的感兴趣区域,无法准确地提供目标的轮廓和位置的不足,提出了一种基于改进视觉注意模型和图像局部自相似性的目标自动检测算法。通过增加运动速度和运动方向特征改进了经典的Itti视觉注意模型。利用改进的视觉注意模型提取感兴趣区域,提高了视觉注意模型的检测能力。再利用图像在边缘处具有良好的局部自相似性,实现了基于图像局部自相似性的目标检测算法。实验表明,算法能快速检测到图像中的目标感兴趣区域,并对其进行精确分割和定位。  相似文献   

11.
针对GrabCut算法需要用户交互进行初始矩形框的设定而不能做到自动分割,且在前景图像较为复杂时分割效果不佳等问题,提出一种基于GrabCut的免交互图像分割算法。首先,训练Faster R-CNN网络,将待分割图像通过Faster R-CNN进行目标检测来得到前景目标所在区域矩形框;然后在k-means算法初始化高斯混合模型时加入位置信息,进行聚类以得到优化的初始高斯混合模型参数;最后对GrabCut算法分割结果中的边缘像素进行平滑后处理。试验结果表明,该算法无需用户交互即可完成分割且相比原始GrabCut算法具有更好的视觉效果和更高的分割正确率。  相似文献   

12.
文章针对工件环形表面字符检测的困难提出一种视觉检测算法.首先对相机采集的照片进行空间滤波、二值化处理的预处理操作,得到便于处理的圆形轮廓区域;然后对圆形轮廓进行基于梯度算法的轮廓查找、极坐标变换展开,使用基于连通域的方法对待检测区域实现字符区域定位,重复使用该方法分割单个字符图像;最后基于卷积神经网络识别算法对分割后的...  相似文献   

13.
针对当前国内变电站周边环境巡检的局限性,基于无人机和红外成像技术,提出了一种改进的YOLOv5红外图像检测方法.通过将主干网络替换成MobileNetV3轻量化网络,来减少参数量;通过修改特征融合层、调整边界框损失函数来增强网络对红外小目标的检测能力.最后通过对自建红外目标检测数据集进行目标检测,并进行对照实验,来验证本文改进算法的可行性.实验结果表明改进网络降低了网络参数,简化了网络结构,对于提高变电站周边环境的监控效率具有参考价值.  相似文献   

14.
为设计一种可自动跟踪、避障的无人机视觉导航技术,将无人机同时搭载双目和单目摄像头:单目摄像头采集无人机相对于被跟踪物体的图像,并采用经Kalman预测器优化的连续自适应均值漂移算法对目标进行有效跟踪;双目摄像头实时采集无人机前进方向上的图像信息,并利用SGM算法计算深度图以分割出无人机前进方向上的障碍物信息。无人机在跟踪目标物体的同时,可自主避开行进方向上的障碍物。实验结果表明,该方法可以有效引导无人机持续、精确地对目标物体进行跟踪,并在跟踪过程中及时躲避前进方向上的障碍物。  相似文献   

15.
图像简化作为机器视觉、计算机视觉中的一项重要任务,对于提高网络传输效率、加速视觉算法分析处理具有重要意义.针对传统图像简化模型中存在的目标、背景不加区分及尺度效应等问题,提出了一种新的基于显著性检测的图像简化模型,模型首先采用MB+显著性检测算法计算图像的目标显著区域,然后在CIE Lab颜色空间中对L波段上的背景区域进行快速水平集变换,最后按照设定准则合并背景中的非主导区域并输出简化后的图像.  相似文献   

16.
针对基于单目视觉的无人机(UAV)避障问题,本研究提出基于单目深度估计和目标检测的四旋翼自主避障方法。其中,单目深度估计模型提供障碍物像素级别的深度信息,目标检测模型提供障碍物的位置信息。单张红绿蓝(RGB)图像的深度图和目标检测结果由卷积神经网络(CNN)获得;图像的区域划分以目标检测结果为依据,区域深度以深度估计结果为计算依据;规划算法依据区域深度和区域划分结果计算无人机的线速度和角速度,实现无人机的自主避障。为验证算法的自主避障性能,采用Parrot Bebop2无人机对本研究提出的算法与直飞算法进行实飞对比实验。结果表明:本研究提出的算法可用于四旋翼无人机的低速自主避障。  相似文献   

17.
针对现有的无人机检测算法无法同时兼顾检测速度及检测精度的问题,本文提出了一种基于YOLOv5s(You Only Look Once)的轻量化无人机检测算法TDRD-YOLO(Tiny Drone Real-time Detection-YOLO).该算法首先以YOLOv5s的多尺度融合层和输出检测层分别作为颈部网络和头部网络,引入MobileNetv3轻量化网络对原骨干网络进行重构,并将骨干网络后的通道在原YOLOv5s的基础上进行压缩,减小网络模型大小;其次,将骨干网络中Bneck模块的注意力机制由SE修改为(Convolutional Block Attention Module,CBAM)并在颈部网络引入CBAM,使网络模型更加关注目标特征;最后修改颈部网络的激活函数为h-swish,进一步提高模型精度.实验结果表明:本文提出的TDRD-YOLO算法平均检测精度达到96.8%,与 YOLOv5s相比,参数量减小到原来的1/11,检测速度提升1.5倍,模型大小压缩到原来的1/8.5.实验验证了本文算法可在大幅降低模型大小、提升检测速度的同时保持良好的检测性能.  相似文献   

18.
传统视频裁剪方法大多只考虑内容保持,而忽略了由裁剪窗口频繁移动造成的时间不连续问题.为此,提出了一种基于动态规划的视频自动裁剪算法,并通过平滑因子和面积约束将视差控制在舒适区间.算法主要分为目标检测、轨迹定义、轨迹找寻三个阶段.首先将输入的视频序列进行语义处理并输出,运用YOLOX模型检测输出视频中的重要内容;然后定义一个对数线性模型融合每帧图像的特征、颜色直方图和灰度图,以得到一组帧系数,并对裁剪窗口进行面积和距离上的约束;最后运用动态规划中最短关键路径方法为视频帧找到一系列裁剪窗口,在相邻帧之间设置过渡因子来保证裁剪轨迹的平滑,同时定义了一个视觉惩罚函数平衡内容丢失与裁剪窗口偏移的问题.实验结果表明:所提出的算法在裁剪率、扭曲度和稳定性方面都优于以往的方法.  相似文献   

19.
传统的模糊C均值聚类算法利用图像的灰度、颜色、纹理、强度等底层特征进行聚类,实现图像的分割,它容易受到噪声的影响,且计算量大,不能提供理想的彩色图像分割结果。针对这些问题,提出一种视觉显著性引导的模糊聚类图像分割方法。首先使用显著性检测对图像进行初始化分割,得到带有区域级标注信息的引导图,然后将引导图作为指导信息,引导模糊聚类算法对图像进行细分割。在公共数据集上的实验结果表明,本文方法与其他改进的FCM算法和深度网络分割模型相比,可以取得较好的分割效果,有效减少了分割时间。  相似文献   

20.
为了克服传统数字图像处理方法进行桥梁裂缝识别时面临的效率低、效果不佳等问题,提出了集成深度学习YOLOv5和U-Net3+算法的一体化桥梁裂缝智能检测方法.通过调整算法宽度和深度参数,优化边界框损失函数,构建基于YOLOv5目标检测算法的裂缝识别定位模型,实现桥梁裂缝快速识别与定位;引入结合深度监督策略及预测输出模块的U-Net3+图像分割算法,训练并构建桥梁裂缝高效分割模型,实现像素级裂缝智能化提取;建立结合连通域去噪、边缘检测、形态学处理的八方向裂缝宽度测量法,基于U-Net3+裂缝分割结果实现裂缝形态及宽度高精度测量;利用LabelImg图像标注软件制作包含4 414张图像的裂缝识别定位模型训练数据集;利用LabelImg图像标注软件及CFD数据集制作包含908张图像的裂缝分割模型训练数据集;利用无人机航拍的485张5 280×2 970 pixels桥梁索塔裂缝图像,来制作裂缝智能检测模型的测试对象.将所提出的裂缝检测方法应用于上述裂缝测试对象,其裂缝识别定位准确率91.55%、召回率95.15%、F1分数93.32%,裂缝分割准确率93.02%、召回率92.22%、F1分数92.22%.结果表明,基于YOLOv5与U-Net3+的桥梁裂缝智能检测方法,可实现桥梁裂缝高效率、高精度、智能化检测,具有较强的研究价值和广泛的应用前景.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号