共查询到20条相似文献,搜索用时 62 毫秒
1.
高强度聚焦超声(HIFU)治疗系统中B超监控图像由于存在伪像和噪声而很难实现图像配准,给靶区定位带来了困难,基于此,提出利用基于超声散斑的相位相关对B超图像进行配准并验证其可行性。首先,根据超声散斑原理和散斑伪随机性,在Matlab 7.0软件环境下,利用基于超声散斑的相位相关对从B超图像中提取出散斑图像进行配准,根据得出的位移值配准对应的B超图像;其次,为了与基于超声散斑的图像配准进行对比,对B超图像进行直接相位相关配准;最后,观察配准结果并进行相似度测定。结果显示,基于超声散斑的相位相关算法能够实现对存在伪像和噪声的B超图像的配准,具有较高的精确性和鲁棒性,优于对B超图像直接相位相关算法;同时也验证了基于超声散斑配准B超图像的可行性。 相似文献
2.
数字散斑测试精度的影响因素相对较多、精准控制难度较大,定量分析程度不足。为了提高数字散斑测试精度,文章通过模拟散斑的方法分析观测散斑尺寸大小对计算结果的影响。结果表明:随着散斑尺寸的增加,位移计算误差呈现先降后升的趋势,即散斑尺寸过大或者过小都不利于数字图像相关的位移计算,最优散斑尺寸为5~7像素。研究结果为数字图像相关计算的观测对象设计提供了数据基准,为实际现场监测的观测目标变形信息的精度提高提供了数据基础。 相似文献
3.
基于数字散斑相关方法的微位移测量 总被引:1,自引:0,他引:1
介绍了数字散斑相关方法的基本原理,利用模拟散斑图分析了3种常用亚像素算法的性能.根据数字散斑相关方法测量微位移的特点,采用爬山搜索法进行整像素搜索,采用计算量小、计算精度高的基于梯度的算法进行亚像素搜索.利用千分表和数字散斑相关方法对有机玻璃梁试件三点弯曲中心挠度进行了测量,并与有限元计算结果进行了比较.结果表明,数字散斑相关方法测量微位移的实验系统是可靠的,在此基础上测量了试件加载位置附近区域的全场位移. 相似文献
4.
5.
基于数字散斑自相关技术的微位移测量 总被引:1,自引:0,他引:1
通过散斑照相实验,得到粗糙表面在激光照射下的散斑场,移动粗糙表面,记录位移前后的散斑图像,利用数字散斑相关方法分析散斑图像,即可确定粗糙表面的位移。理论分析和实验结果表明,数字散斑相关技术可以很好地实现测量带有粗糙表面物体的微小位移,精度可达微米级。 相似文献
6.
基于桥梁变形测量的数字散斑测量系统,提出一种近距离测量形变的双显微测量系统,能消除刚性位移,提高测量精度.针对实现双显微数字散斑测试技术所需光学镜头,根据成像原理,设计出满足需要的与CCD相匹配的双显微物镜.采用满足设计要求的4倍的显微物镜进行试验,通过实验验证,设计合理,满足所需精度. 相似文献
7.
分析了方棱镜的剪切原理,提出了利用方棱镜作为剪切元件的大错位电子散斑干涉形貌测量技术.利用方棱镜作为剪切元件,对被测物体进行微小偏转以引入载波条纹,通过CCD摄像机采集载波条纹图,利用傅里叶变换法解调可得到物体高度的位相信息,从而实现物体的形貌测量. 相似文献
8.
针对传统ICP(Iterative Closest Points)配准算法计算量大、收敛速度慢且要求待配准的两片点云数据重合程度较高的问题提出了一种改进方法:首先基于均匀采样法精简点云数据;其次采用Kd-Tree算法查找最近点并基于距离阈值剔除错误匹配点;接着优化目标误差函数,计算点到切平面的距离;最后采用多角度的全局配准方法将两片重合程度最小的点云较好地配准在一起.通过对比实验,验证了本文的改进型ICP算法在运行时间和配准精度上都对传统的ICP算法做出了较大改进,取得了较好的配准效果. 相似文献
9.
10.
双目立体视觉三维重建能够从两幅不同视角获取的二维图像恢复三维空间中物体三维几何信息.将三维空间向二维空间投影过程认为是对数字图像加密的过程,则三维重建的过程就是对数字图像进行解密的过程.基于此思路提出并实现基于双目立体视觉三维重建原理的数字图像加密算法.实验结果表明,该思路具有可行性;算法的加密性能良好,满足数字图像加密安全性的要求. 相似文献
11.
基于特征匹配算法的双目视觉测距 总被引:1,自引:0,他引:1
距离测量作为障碍物检测以及路径规划的前提和基础是机器人研究领域的一个重要分支。在众多测距方法中,由于双目立体视觉具有信息丰富、探测距离广等优点被广泛应用。本文将改进的SIFT特征匹配算法应用到双目视觉测距与标定系统中。首先建立双目视觉测距模型,测量值由空间物点在左右摄像机下的像素坐标值决定;其次根据该模型的特点提出了基于平行光轴的双目立体视觉标定方法;最后利用改进的SIFT特征匹配算法,提取匹配点的像素坐标完成视觉测距。实验结果表明,根据测量数据对障碍物进行三维重建,相对距离与真实场景基本吻合,能够有效地指导机器人进行避障。 相似文献
12.
针对手部掌形的表皮纹理复杂性和弹性易形变等特点,提出了一种以光栅式双目三维视觉技术对手部掌形模型进行重构及实现的方法。首先对左右侧相机的属性参数和相对位置进行标定,并利用多方位光栅扫描的图像作优化拼接,再对海量原始数据点云进行编辑、三角形和曲面片化处理,最后实现手部掌形模型的数控模拟和实际加工验证。试验结果表明,采用高精度的非接触式测量能快速完成逆向实物加工,该方法具有借鉴和应用价值。 相似文献
13.
探讨了立体视觉在人脸外形测量中的应用,针对牙齿整容手术模拟时必须测量面部皮肤表面一些指定点三维信息的问题,建立了一种双目成象系统.根据人脸的特征,提出了人机交互确定特征点并结合先验知识进行图象匹配的新方法,通过受试者的正面和左右90°侧面三组图象、成象系统的全局坐标系与面部局部坐标系之间的几何位置,确定指定点在面部局部坐标系中的坐标值.误差校正项的引入有效地提高了系统的精度,实验结果表明了该系统的合理性. 相似文献
14.
根据原木材积检测的特点,针对传统人工检尺存在的主要问题,基于双目视觉理论,设计了一种由CCD摄像机、单片机和上位机图像处理软件组成的自动化测量系统.选用HYC-600摄像机组建双目视觉前端,并给出了单片机信号采集处理板、光电编码器和光电开关等关键技术的设计方法,完成了双目标定、Bouquet校正、三维重构和各功能模块的软件开发.实验结果表明:该检测系统能有效克服人工检尺的缺点,成本低、精度高、可靠性强、安装使用方便. 相似文献
15.
首先,利用机器视觉技术获取奶牛乳房外形的三维描述,并与起声图像分析获得的乳腺分布区域深度信息结合,构建乳腺分布区域的内外层三维网格,从而测算该区域的体积.然后,对乳腺超声图像进行分析,利用局部聚类及区域标记法等分割出乳腺组织部分,并计算乳腺组织的面积密度.最终利用体视学中面积密度与体积密度相等的关系,求得乳腺组织的体积.模拟实验也验证了此方法的可行性. 相似文献
16.
首先提出了一个基于监视器的双目立体视觉模型,然后重点分析了由视差引起的立体效果,以及直线段立体成像的立体效果.最后通过实验证实了论文的结论,并给出了一个虚拟植物可视化立体展现的实例.对于直线段立体成像的情形,定量分析和实验表明,当观察者保持双眼平行地远离或靠近屏幕时,看到的各点深度都相同的图像虽然会产生移动,但是不会感到有明显的形变.这为立体图像尺寸的测定提供了可行的方法. 相似文献
17.
提出了一种新的方法来进行双目立体视觉系统同名点的自动提取,对现有的特征点匹配方法进行了改进,通过对同名点的自动提取,获取了摄像机相对校准所必需的参数. 相似文献
18.
针对人工测量作物表型结构参数不够准确的问题,提出基于双目视觉的作物表型参数提取系统. 利用鸡毛菜的叶面积和平均叶倾角两个重要表型参数,通过采集鸡毛菜原始RGB图和深度图,将原始信息合成为颜色点云后进行预处理. 采用超体素聚类的分割算法将每片叶片从作物点云中分离,并改进贪婪投影三角剖分算法,获得最佳表面重建效果,实现网格模型的颜色渲染. 在VTK库中完成网格模型的优化,获得真实感较强的鸡毛菜网格模型.在网格模型中实现对两个参数的提取,并与人工测量值比较. 对于第四组大于4 cm的叶片,自动提取的叶倾角平均绝对误差小于5.5°,验证了自动化无损监测鸡毛菜作物的可行性. 相似文献
19.
研究的是数码相机在交通管制中定位物体特征点的优化设计问题.将数码相机成像问题简化为针孔成像问题后,研究了靶标图像与数码相机像平面上图像间的旋转和平移关系,为了使二维图像获取三维信息,建立起图像间的透视投影模型.利用该模型,通过确立标定点与相应的二维图像坐标,运用最小二乘法求解投影矩阵,实现对相机内、外部参数的标定.标定过程中,运用数字图像处理技术,对图像进行二值化处理,提高了数据的准确度和科学可信性,由此解得较为精确的内、外部参数,获得基于此模型的圆心在像平面的坐标表示,分别为A(321,189)、B(422,196)、C(639,212)、D(582,502)、E(284,501).使用BP神经网络方法对已建立的模型进行检测,通过对比BP神经网络与透视投影求得圆心值与实际圆心值的均方根误差,论证了该模型有较高的精度和稳定性.并基于已有工作,建立了双目视觉定位模型,得到两部相机间的相对位置关系.在模型的进一步讨论中,研究了椭圆中心偏移问题,时像平面上椭圆的中心坐标进行了修定,得到实际的中心为:A(325,191)、B(427,201)、C(642,216)、D(584,504)、E(288,505).以及讨论了图形的畸变问题,确定了相应的关系. 相似文献
20.
针对散堆工件场景中点云生成耗时久、位姿估计困难、多类工件混合情形难处理等问题,提出图像分割引导的散堆工件结构光三维位姿估计方法,并基于JAkA Zu3 6-DoF机器人开发散堆工件抓取实验系统。采用YOLACT模型获取散堆工件图像中的工件信息,通过自适应阈值筛选待抓取工件,利用双目结构光生成目标工件所在区域的局部点云,并基于投票匹配算法和迭代最近邻算法估计工件位姿。通过搭建的实验系统对文中方法进行测试。实验结果表明:系统完成目标工件位姿估计时间约为3.641 s,其中,点云计算需0.536 s,点云配准需0.446 s;与其他方法相比,文中方法平均可缩小点云规模44%,点云生成时间平均缩减24%,配准成功率提升至100%。 相似文献