首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到17条相似文献,搜索用时 46 毫秒
1.
针对基于视觉的室内场景三维重建过程中存在三维点云匹配不准确、过程耗时和深度信息部分缺失的问题,提出一种带有深度约束和局部近邻约束的基于RGB-D的室内场景实时三维重建算法.该算法首先利用RGB-D相机采集到的RGB图像做哈里斯角点检测,再用SURF特征点描述方法对检测到的特征点生成64维特征描述子.接着利用特征点集合的深度信息和局部近邻特征点信息作为约束,初步筛选出相邻帧间正确的匹配点对,再结合随机抽样一致性(RANSAC)算法去除外点,以此得到相机的姿态估计.最后利用RGB-D的深度图像,在图优化方法(g2o)的基础上生成三维点云,实现室内场景的三维重建.实验中,RGB-D摄像头装载在自主移动导航的小车上,实时重构的三维场景验证了所提算法的可行性和准确性.  相似文献   

2.
以RGB-D(彩色-深度)传感器的代表微软Kinect 2.0相机为例,结合飞行时间测距法(ToF)获取深度信息的原理,对环境中不同材质、不同颜色情况下获取的深度数据的精度进行理论与实验分析,得出深度测量误差与深度测量距离的平方成线性关系,以及不同颜色材质下深度测量精度的定量规律.同时利用所建场景、模型表面特征参数指标的绝对误差和相对误差,并对豪斯多夫距离法进行改进,来分析整体建模精度;以高精度三维激光扫描仪(LiDAR)建模成果作为标准,对RGB-D传感器整体建模结果的精度进行评价,在此基础上分析便携式RGB-D在量测、建模上能达到的实际精度,得出其在实际近景测量、室内建模等方面的适用性.  相似文献   

3.
针对室内复杂环境三维建模问题,提出一种移动机器人快速三维同时定位与地图创建(SLAM)方法.利用RGB-D相机分别获取环境纹理和三维信息,通过图像特征提取与匹配,结合相机标定模型,建立三维点云对应关系,运用随机抽样一致性(RANSAC)算法作为位姿估计的策略求解基于对应点迭代最临近点的模型,有效解决机器人精确定位问题;引入keyframe-to-frame关键帧选取机制,结合立体栅格法及空间点云法向唯一特征,实现三维地图的更新与维护.室内环境下的实验结果验证了所提方法的可行性与有效性.  相似文献   

4.
室内三维场景实时感知是室内增强现实、三维测图和机器人自主定位与导航的关键技术之一。利用智能手机Tango传感器搭载的单目摄像头和深度相机,根据实时获取的彩色图像和深度信息,研究并提出了一种实时的室内三维场景感知方法;该方法首先根据智能手机Tango传感器获取的彩色图像存在的问题,采用多项式函数对彩色相机进行校正。接着,使用ORB(oriented FAST and rotated BRIEF)算子对彩色图像进行特征提取,利用RANSAC算法剔除误匹配点;并根据优化后的匹配点对采用ICP算法对手机姿态进行初步估计。最后,基于融合空间关系的视觉词典(SDBo W2)对感知的初步室内场景进行闭环检测;并通过图优化得到实时感知的室内三维场景模型。实验表明,方法能利用Tango传感器高效地获取室内场景完整的三维结构信息与纹理。  相似文献   

5.
三维重建技术是计算机视觉领域研究的重点,广泛应用于自动驾驶、逆向工程、文物恢复、观演空间展示等领域。目前,对单物体的重建效果显著,但大场景信息复杂、特征杂乱,现有针对大场景的特征匹配算法和点云配准算法在计算效率和精度上仍存在一定的局限性。因此,本文基于RGB-D图像序列,首先采用了一种结合非极大值抑制的ORB特征提取方法,提出了基于KD树和优先队列相结合的匹配方式,然后构建了融合多元信息的关键帧筛选机制,实现了对局部场景稠密点云的实时生成。其次,提出了一种基于双重阈值约束点云精配准方法,在点云法向量夹角阈值约束的基础上,通过自适应距离阈值约束实现ICP算法中最近邻点对的搜索。最后,在真实大场景中进行实验分析,验证了本文算法的有效性。  相似文献   

6.
以Openinventor的三维场景建模和实践   总被引:2,自引:0,他引:2  
本文介绍以Openinventor三维图形开发包为建模支撑的桌面PC非沉浸式虚拟现实技术,就重庆师范大学新校区范围的场景建模、可视仿真等有关技术进行,对校园的真实场景进行了抽象和可视化研究.  相似文献   

7.
近年来,深度卷积神经网络应用于图像语义分割领域并取得了巨大成功。本文提出了一个基于RGB-D(彩色-深度) 图像的场景语义分割网络。该网络通过融合多级RGB网络特征图和深度图网络特征图,有效提高了卷积神经网络语义分割的准确率。同时,本文利用带孔的卷积核设计了具有捷径恒等连接的空间金字塔结构来提取高层次特征的多尺度信息。在SUN RGB-D数据集上的测试结果显示,与其它state-of-the-art的语义分割网络结构相比,本文所提出的场景语义分割网络性能突出。  相似文献   

8.
提出并实现了一种基于无人机的大场景序列图像自动采集和三维重建方法,实现了大范围场景全自动图像数据采集和三维建模。首先设计实现无人机自动控制地面站和基于Cortex-A17的无人机控制模块,其次在地面站人工点选设计航线和拍摄位置,并自动控制飞行和拍摄过程,实时将序列图像回传地面站,最后地面站应用SFM方法实时自动重建大场景三维模型。实验结果表明,相对于人工控制方法,文中方法能够实现无人机飞行和拍摄过程自动控制,同时提高拍摄稳定性,降低基于无人机的大场景三维建模难度,提高建模效果。  相似文献   

9.
树在虚拟场景中的构成中占有很重要的地位.论文跟据不同虚拟场景中绘制三维树木的特点,介绍了贴图法画树;提出了用分形方法对三维树木进行真实绘制;并讨论了加速虚拟场景中三维树木绘制的技术.实践证明:在VC和OpenGL的环境下,用本文方法在可漫游虚拟场景中产生树模型,在实时性与真实感方面均取得了不错的效果.  相似文献   

10.
树木是构建虚拟场景不可或缺的元素.针对传统的树木分形生成算法耗时长,计算复杂、不适合在构建实时动态的场景中使用的缺点,提出了一种通过构建树木的枝干模型,采用递归算法和OpenGL纹理映射的方法来渲染具有真实感的三维树木,并且可以利用各种成熟的诸如光照等技术做进一步的处理以适应各种需要.同时,为了从任意角度观察模型,通过构建OpenGL摄像机类,实现了三维树木不同视角下的三维漫游.试验结果表明,所述的原理方法稳定可行,所实现的效果符合三维可视化的要求.  相似文献   

11.
常用的环境探测传感器中,二维激光雷达扫描角度广,测量精度高,但数据量较少,RGB-D相机成本低,能获取环境三维信息,但视角小.在此基础上,提出一种改进的RGB-D相机和二维激光雷达数据融合算法,本算法首先将RGB-D相机获取的深度图像转换为三维点云,剔除地面点云后进行投影得到模拟2D激光数据,然后与二维激光雷达数据进行...  相似文献   

12.
针对虚拟社区建模的特点,对不同对象进行建模,提出一种新颖的随机分布对象建模方法和一种拟合曲线放样建模方法,这些建模方法生成对象逼真细腻,在多方面弥补了传统建模方法的不足,结合VRML和桌面型虚拟现实技术完成了虚拟社区建模和场景设计。  相似文献   

13.
分析了基于X3D的虚拟场景建模的常规方法,在对比其优缺点的基础上,以虚拟校园为例,引入艺术学思想,采用X3D技术,给出了不同类型物体建模的解决方案,兼顾了模型的质量和加载速度.  相似文献   

14.
基于OWL的制造资源本体建模   总被引:1,自引:1,他引:0  
针对企业制造资源管理中存在的问题,结合本体建模在知识重用和共享方面的优势,建立制造资源分类体系,并以标准零件资源为例,按其属性定义了本体分类层次树.通过分析标准零件资源中滚动轴承的属性信息,基于本体语言OWL建立了滚动轴承的本体信息模型.OWL语言有丰富的语义表达能力,因此建立的本体模型能更好地反映概念间的本质联系和语义关系,为制造企业制造资源的发现、共享和重用奠定良好的信息化基础.  相似文献   

15.
针对软测量建模过程中的误差数据剔除、特征提取,及模型的动态辨识问题,提出基于核主元分析和动态递归模糊神经网络软测量建模方法.首先,利用样本间马氏距离进行样本相似程度分析,去除样本中错误数据以确保数据质量;然后利用核主元分析提取系统的非线性主元,作为动态递归模糊神经网络的输入;最后利用新样本数据训练动态递归模糊神经网络.将该方法应用于赖氨酸发酵过程的产物浓度预测,仿真结果表明该方法具有较高的预测精度,满足现场测量要求.  相似文献   

16.
基于Agent和无线传感器网络的普适计算情景感知模型   总被引:1,自引:0,他引:1  
研究了普适计算中的情景感知(上下文感知)技术,以无线传感器网络为基础架构,引入Agent技术构建了情景感知模型。从Agent的知识表示和推理、中间件理论、数据管理和自然交互接口等方面探讨了该模型的结构和内容。并通过“智能家居”的应用示范,论述了该模型的可实现性。  相似文献   

17.
基于VRML的虚拟场景构造中应用建模工具的研究   总被引:2,自引:0,他引:2  
随着计算机网络技术的发展 ,利用虚拟现实建模语言 (VRML)开发桌面虚拟现实系统成为当前虚拟现实技术发展的热点。由于VRML本身的特点 ,这种开发过程必然笨拙而繁琐。如何利用其它的辅助开发工具来提高开发效率具有现实意义。主要讨论了如何在虚拟场景构造中应用三维建模软件 ,然后给出一个基于VRML、应用三维建模软件 3DSMAX构造虚拟场景的应用实例。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号