首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到17条相似文献,搜索用时 546 毫秒
1.
针对Frustum-PointNets的实例分割网络结构单一且卷积深度较深、易出现特征丢失和过拟合,检测准确率较低的问题,提出了一种改进的Frustum-PointNets网络。该网络首先构建深度残差网络并融入实例分割网络,提高特征提取能力,解决深层网络的退化问题;引入双重注意力网络以增强特征,提高分割效果;运用Log-Cosh Dice Loss解决样本不均衡,加快网络训练;使用Mish激活函数保留特征信息;最后基于Kitti和SUN RGB-D两个数据集进行实验验证本文算法的有效性。实验结果表明,本文算法相对于Frustum-PointNets,在Kitti数据集中,3D框检测精度提高了0.2%~13.0%;鸟瞰图的3D框检测精度提高了0.2%~11.3%。在SUN RGB-D数据集中,本文算法的3D框检测精度提高了0.6%~16.2%,平均检测精度(m AP)提高了4.4%。实验验证,本文算法在室外和室内场景中获得较好的目标检测及分割效果。  相似文献   

2.
针对点云分割中分割目标不明确,边缘不清晰,全局特征与边缘特征未能有效融合等问题,提出 了一种融合边缘检测的 3D 点云语义分割算法。 首先,通过 3D 点云语义分割网络对点云数据进行初步提取 区域内的全局语义特征;然后,采用引入了注意力机制的语义边缘检测网络,能够更好地对点云数据中的物 体进行特征提取增强,抑制非边缘信息的产生,得到了具有丰富的语义信息的边缘特征;最后,通过融合模块 将属于同一物体的语义特征融合起来进行分割细化处理,使得分割目标更精确;此外,使用了双重语义损失 函数,使网络产生具有更好边界的语义分割结果。 通过搭建实验平台和使用 S3DIS 标准数据集进行测试,改 进后的算法在数据集上的平均交互比为 70. 21%,在精度上较 KPConv 语义分割算法有所提高。 实验结果表 明:该算法能够有效改善物体边界分割不清晰、边缘信息模糊等问题,总体分割性能良好。  相似文献   

3.
为了进一步提高三维模型的识别精度,提出了一种基于深度卷积神经网络的三维模型识别方法。将点云数据通过占用网格规范化计算转化为二值3D体素矩阵,通过附加正则化项的随机梯度下降算法提取体素矩阵的特征,再通过共享权重的旋转增强对训练集进行数据增广并以此对模型标签进行预测。实验结果表明,该算法在公开数据集ModelNet40及悉尼城市模型数据集上的识别精度均达到85%左右。与基于同类机器学习的三维模型识别算法相比,在相同训练数据集上该方法网络训练时间短,在相同测试数据集上模型识别准确率高,检索速度快。提出的体素占用网格模型的深度卷积神经网络,可以实现三维点云模型数据集及规范化体素模型数据集的识别和分类工作。  相似文献   

4.
蔡黎明      杜吉祥      刘怀进      张洪博      黄敬东     《华侨大学学报(自然科学版)》2023,(1):111-118
针对不规则且稀疏的点的提取特征问题,提出一种以动态卷积作为特征提取的3D点云目标检测算法.首先,以一种新型的动态卷积的方式自适应学习点的位置特征,分类出前景点与背景点,同时对提取出的前景点逐一做回归框;然后,用非极大值抑制选出分数值最好的回归框.其次,进行粒度的细化,得到修正规范的3D回归框,完成3D物体的目标检测.最后,在KITTI数据集上验证算法的有效性.结果表明:文中所提算法在汽车类、行人类、自行车类数据集上的3D点云目标检测精度更高.  相似文献   

5.
随着激光雷达传感器和深度学习技术的快速发展,针对自动驾驶3D目标检测算法的研究呈现爆发式增长。为了探究3D目标检测技术的发展和演变,对该领域中基于深度学习的3D检测算法进行了综述。根据车载传感器的不同,将当前基于深度学习的自动驾驶3D目标检测算法分为基于相机RGB图像、基于激光雷达点云、基于RGB图像–激光雷达点云融合的3D目标检测3种类型。在此基础上,分析了各类算法的技术原理及其发展历程,并根据平均检测精度(mAP)指标,对比了它们的性能差异与模型优缺点。最后,总结和展望了当前自动驾驶3D目标检测中仍然面临的技术挑战及未来发展趋势。  相似文献   

6.
针对现有铁路人员入侵识别准确率不高、实时性较差的问题,在YOLOv4模型的基础上提出一种R-YOLO轨道人员目标检测模型。首先,用轻量级骨干网络ResNet50代替原有的CSPDarknet53网络,利用深度可分离卷积替代PANet中的标准卷积,减少网络层数以及模型体积,加快模型的识别速度。其次,在加强特征提取网络的3个特征层分别加入有效通道注意力模块,采用K-means++聚类算法重新对数据集进行聚类和分析,提高目标检测模型的精度;在模型训练方面,采用迁移学习和混合数据集联合训练,解决人员识别精度不理想以及误检漏检等问题。最后,利用R-YOLO轨道人员目标检测模型对真实铁路人员入侵数据集进行测试。结果表明,R-YOLO模型在真实铁路人员入侵数据集上的平均识别精度达到了92.12%,较传统YOLOv4算法高出1.89%,帧速率由38.74 f·s-1提升到47.73 f·s-1。R-YOLO模型部分解决了铁路入侵人员误检漏检问题,提高了铁路人员入侵识别的实时性和准确率,为铁路安全运行提供了保障。  相似文献   

7.
针对点云分割中边缘特征提取不足导致局部特征信息不完整、整体分割精度下降的问题,提出一种3D点云分割改进型边缘特征提取网络.为提升边缘特征表达能力,对深层边缘特征提取层做出改进,引入基于残差结构改进的多层感知机结构,形成边缘特征提取单元,该单元将原始点云特征与多层感知机提取边缘特征相融合,获取更加丰富完整的边缘信息,提高3D点云分割网络模型精度.在Shapenet数据集上的实验结果表明,提出的3D点云分割改进型边缘特征提取网络优于现存同类方法,相较于LDGC-NN链接动态图网络,点云分割准确率提升了1.17%.  相似文献   

8.
为提高多物体抓取检测网络的抓取检测准确率,提出一种基于改进Cascade R-CNN模型的机械臂抓取检测算法.首先,引入ResNeXt结构能够在不加大网络设计难度的前提下提高了模型的准确率;引入带空洞卷积的空间金字塔池化模块以解决分辨率较低的问题;接着对抓取框回归分支和角度分类分支以分治方法进行优化.其次,针对多物体抓取数据集缺乏的问题,构建多目标抓取数据集(multi-object grasping dataset, MOGD),有效地扩充了多物体抓取检测数据集.最后,基于改进Cascade R-CNN模型设计抓取检测网络,实验结果表明,改进后的算法效率更高,PI-Cascade R-CNN实验准确率为93%,较Cascade R-CNN提升1.5个百分点.  相似文献   

9.
针对输送带纵向撕裂检测中存在的检测视角单一、速度慢、精度低等问题,文章提出一种基于改进YOLOv3算法的输送带纵向撕裂多视角检测方法。首先对原始YOLOv3网络结构进行优化设计,采用29层网络模型(Darknet-29)作为特征提取网络,将原有的3种不同尺度锚点改用为2种不同尺度(26×26,52×52)锚点;将位于多视角检测点的工业相机所采集的纵向撕裂图像制作成数据集,使用K-means算法对输送带纵向撕裂标签进行维度聚类分析,确定先验框参数;最后将改进的YOLOv3算法在数据集上进行测试与训练,并与其他几种算法进行比较。实验结果表明:该检测方法不仅可以较好地检测出输送带纵向撕裂,还可以分类识别出大裂纹或完全撕裂情形;相较于原始YOLOv3算法,改进后的YOLOv3算法平均检测精度均值提高0.4%,达到98.7%,检测速度提高60.6%,达到53帧/s,模型占用内存减少93 Mb,仅为141 Mb,优于YOLOv2和YOLOv3-Tiny算法。该文提出的输送带纵向撕裂检测方法具有模型占用内存低、检测精度高及速度快等优点,为输送带纵向撕裂提供了一种新的检测方案。  相似文献   

10.
提出了一种新的三维物体检测方法.在物体定位部分,采用随机采样一致和欧式聚类算法分割三维物体点云以减少计算量;在物体识别部分,将物体点云转化为深度图像,利用k-Means聚类算法学习卷积核,利用卷积网络提取卷积特征,从而提高图像的识别率,并在2个公开的三维物体数据集上对所提出的特征提取算法进行测试.结果表明,与传统的点云特征提取方法相比,基于卷积网络的特征提取方法的识别率较高.  相似文献   

11.
针对复杂场景下的三维点云目标识别速度慢,准确率低的问题,提出了一种基于关键点的点对特征三维目标识别算法. 通过直接对关键点建立点对特征,避免了周围邻域局部曲面的特征计算,具有空间维度小和计算速度快的特点. 使用哈希表存储,加快了特征匹配的时间. 利用快速投票方案对模型点云和场景点云进行匹配识别,生成候选位姿,利用贪婪算法对候选位姿进行聚类与筛选,采用ICP算法对物体位姿进行优化,基于配准后的点云重叠情况完成目标识别. 对提出的算法在多个数据集以及真实场景下进行了实验,验证了所提出的识别方法具有可行性和有效性,且对噪声的鲁棒性较强,具有一定的实际工程应用价值.   相似文献   

12.
For a vision measurement system consisted of laser-CCD scanning sensors, an algorithm is proposed to extract and recognize the target object contour. Firstly, the two-dimensional(2D) point cloud that is output by the integrated laser sensor is transformed into a binary image. Secondly, the potential target object contours are segmented and extracted based on the connected domain labeling and adaptive corner detection. Then, the target object contour is recognized by improved Hu invariant moments and BP neural network classifier. Finally, we extract the point data of the target object contour through the reverse transformation from a binary image to a 2D point cloud. The experimental results show that the average recognition rate is 98.5% and the average recognition time is 0.18 s per frame. This algorithm realizes the real-time tracking of the target object in the complex background and the condition of multi-moving objects.  相似文献   

13.
移动主体获得准确的定位信息是构建稳定的混合现实(mixed reality,MR)系统的关键,然而MR中的前景对象对传统定位算法的精度影响较大.现阶段基于深度学习的定位算法可以通过识别前景对象来提升精度,但深度学习模型耗时过高,导致算法实时性下降.针对该问题,提出了一种MR中融合语义特征传播模型的前景对象感知定位算法.该算法依托语义分割网络与一种快速旋转的二进制独立稳定描述子特征(oriented fast and rotated binary robust independent elementary feature,ORB)提取算法构建了语义特征传播模型,实现高速语义特征提取;融合该模型和几何特征检测方法实现算法中的前景对象感知层,并依赖该感知层剔除MR中前景对象的特征点,构建了背景特征点集,实现高精度、高实时性的定位.实验结果表明:在慕尼黑工业大学(Technical University of Munich,TUM)公共数据集的高动态前景对象场景中,相比动态语义视觉同步定位与建图(dynamic semantic visual simultaneous localization...  相似文献   

14.
基于不变角度轮廓线的三维目标识别   总被引:1,自引:0,他引:1  
三维物体的快速准确识别是研究的热点.根据局部特征变换的特点,提出了不变角度轮廓线的识别方法.算法通过点云矢量特征对物体进行局部分割,利用欧式距离、测地距离以及角度三个变量,建立其不变角度轮廓特征描述,进一步提取不变矩特征,构建特征向量数据库集.被识别物体的特征描述和数据库中特征进行夹角余弦匹配,可完成物体的识别.通过识别实验以及识别算法性能分析,结果表明算法具有较高的识别率和识别效率,可以用于复杂点云物体识别.  相似文献   

15.
研究基于三维点云匹配的多位姿手部静脉识别.考虑手部静脉点云的特点,结合双目视觉原理,建立了一种结合三维特征阵列和静脉点云的扩展数据库,提出了一种基于三维特征阵列的静脉点云粗配准算法.在双目静脉图像中提取稳定特征并重建为三维特征,根据三维特征匹配结果初步消除静脉点云位姿差异.并采用改进的正态分布变换算法完成静脉点云匹配.实验表明,本文算法能够有效提高多位姿下的静脉点云识别率,即使手部位姿变化范围较大时,系统的识别率仍超过90%.   相似文献   

16.
针对当前智能车辆目标检测时缺乏多传感器目标区域特征融合问题,提出了一种基于多模态信息融合的三维目标检测方法. 利用图像视图、激光雷达点云鸟瞰图作为输入,通过改进AVOD深度学习网络算法,对目标检测进行优化;加入多视角联合损失函数,防止网络图像分支退化. 提出图像与激光雷达点云双视角互投影融合方法,强化数据空间关联,进行特征融合. 实验结果表明,改进后的AVOD-MPF网络在保留AVOD网络对车辆目标检测优势的同时,提高了对小尺度目标的检测精度,实现了特征级和决策级融合的三维目标检测.   相似文献   

17.
医药空瓶在生产过程中瓶身表面会产生大量的气泡缺陷,但现有的方法对医药空瓶表面气泡检测存在各种问题,例如对复杂场景变化的鲁棒性不强,抗噪声干扰能力弱等.针对现有医药空瓶表面的气泡缺陷,提出了一种改进的深度学习目标检测算法RetinaNet对瓶身气泡进行检测.对原始RetinaNet算法中的特征金字塔网络结构进行了优化,在特征融合过程中引入了特征增强模块,用来提高网路对图像语义特征的提取,增强网络特征提取能力.为了减少模型的参数数目和计算时间,考虑到空瓶表面气泡均为小目标缺陷,去掉原始特征金字塔网络中用于检测大目标的网络结构,提高了算法检测速度.通过对标准的ResNet50网络进行重新组合,并引进了膨胀卷积模块,扩大特征图感受野,提高了模型检测的精度.通过在注塑空瓶数据集上对本文的方法进行了验证,其准确率为99.72%,漏检率为0.12%,误检率为016%,mAP为99.49%,相比原始的RetinaNet的mAP提高了接近2.4%.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号