首页 | 本学科首页   官方微博 | 高级检索  
     检索      

基于多视图融合的3D人体姿态估计
引用本文:胡士卓,周斌,胡波.基于多视图融合的3D人体姿态估计[J].中南民族大学学报(自然科学版),2023(1):103-110.
作者姓名:胡士卓  周斌  胡波
作者单位:1. 中南民族大学计算机科学学院;2. 武汉市东信同邦信息技术有限公司
基金项目:湖北省自然科学基金资助项目(2016CFB650);
摘    要:针对自然场景中遮挡、检测姿势不准确以及建立的交叉视图不匹配等问题,在VoxelPose模型的基础上提出了一种基于heatmap的多视图融合网络来估计3D人体姿态.首先,改进高分辨率网络,添加反卷积模块生成更高分辨率的heatmap.取两个髋关节之间的关键点为人体中心点,引入对极约束模型匹配融合不同视角下人体中心点的heatmap信息;然后,将所有视角的heatmap投影到共同的3D空间,再经过3D CNN网络以中心点构建特征体积来估计所有关键点的位置;最后,回归准确的3D人体姿态.在公开的数据集Shelf和Campus中,评估指标PCP3D(正确估计关节位置的百分比)分别达到97.1%和96.7%.在CMU-Panoptic数据集中,MPJPE(关节位置误差的平均值)为16.80 mm,实验结果优于VoxelPose.

关 键 词:三维人体姿态估计  热图  多视图融合  对极几何
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号