一种基于PSMNet改进的立体匹配算法 |
| |
作者姓名: | 刘建国 冯云剑 纪郭 颜伏伍 朱仕卓 |
| |
作者单位: | 武汉理工大学 现代汽车零部件技术湖北省重点实验室∥汽车零部件技术湖北省协同创新中心∥湖北省新能源与智能网联车工程技术研究中心, 湖北 武汉430070;武汉理工大学 现代汽车零部件技术湖北省重点实验室∥汽车零部件技术湖北省协同创新中心∥湖北省新能源与智能网联车工程技术研究中心, 湖北 武汉430070;武汉理工大学 现代汽车零部件技术湖北省重点实验室∥汽车零部件技术湖北省协同创新中心∥湖北省新能源与智能网联车工程技术研究中心, 湖北 武汉430070;武汉理工大学 现代汽车零部件技术湖北省重点实验室∥汽车零部件技术湖北省协同创新中心∥湖北省新能源与智能网联车工程技术研究中心, 湖北 武汉430070;武汉理工大学 现代汽车零部件技术湖北省重点实验室∥汽车零部件技术湖北省协同创新中心∥湖北省新能源与智能网联车工程技术研究中心, 湖北 武汉430070 |
| |
基金项目: | 新能源汽车科学与关键技术学科创新引智基地资助项目;国家自然科学基金;优秀学位论文培育项目 |
| |
摘 要: | 为了解决双目视觉中的立体匹配问题、减少立体匹配网络的参数数量、降低算法的计算复杂度、提高算法的实用性。在PSMNet立体匹配网络的基础上进行改进,提出了一种具备浅层结构与宽阔视野的立体匹配算法——SWNet。浅层结构表示网络层数更少、参数更少、处理速度更快;宽阔视野则表示网络的感受野更宽广,能够获取并保留更多的空间信息。SWNet由特征提取、3D卷积和视差回归3个部分构成。在特征提取部分,引入了深色空间金字塔结构(Atrous Spatial Pyramid Pool,ASPP),用于提取多尺度的空间特征信息,设计了特征融合模块,将不同尺度的特征信息有效地融合起来以构建匹配代价卷;3D卷积神经网络利用堆叠的编码解码结构进一步对匹配代价卷进行规则化处理,获得不同视差条件下特征点之间的对应关系;最后,采用回归的方式得到视差图。SWNet在SceneFlow和KITTI 2015两个公开的数据集上均取得了优异的表现,与参考算法PSMNet相比,参数数量下降了48.9%,且误匹配率仅有2.24%。
|
关 键 词: | 立体匹配 PSMNet立体匹配网络 卷积神经网络 深度学习 深色空间金字 |
本文献已被 CNKI 万方数据 等数据库收录! |
|