首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 125 毫秒
1.
一种基于分割的可变权值和视差估计的立体匹配算法   总被引:1,自引:0,他引:1  
立体匹配一直是计算机视觉研究领域中的热点和难点.是立体视觉中的关键技术之一.为了消除幕于局部图像的双目立体匹配的歧义性,提出一种基于图像分割及可变权值方窠的初始匹配和贪婪的后处理视差估计策略相结合的市体匹配算法.分割彩色立体图像对,利用分割自适应地分配权值来消除匹配特征相似的歧义性.计算匹配代价得到初始视差.接着,为了更好地消除弱纹理区域、重复纹理区域和宽遮挡区域等复杂歧义性,视差后处理中采用贪婪估计方案,包括基于分割的视差校准、窄遮挡处理及多方向自适应加权最小二乘拟合填充.实验结果表明,基于分割的本算法结构简单,能有效地提高处理局外点的稳健性,并生成高精度的稠密视差.  相似文献   

2.
《光学技术》2013,(6):510-516
立体匹配,其目的是在对两幅存在一定视差的图像进行匹配后,获得两幅图像精确的视差图,是计算机视觉领域的重点和难点问题。为了快速、高效地获得高精度的稠密视差图,在充分研究了基于边缘特征的立体匹配和基于局部窗口的立体匹配两类算法的基础上,提出了一种基于局域边缘特征的自适应立体匹配算法。首先该算法自适应地选择局部匹配窗口大小,并计算其中相应位置的权值,实现初次匹配,然后再以基于边缘特征匹配获得的高精度稀疏视差图作为约束,修正部分误匹配点,最终获得准确、稠密的视差图。实验表明,该算法具良好的实验结果和较大的实用价值。  相似文献   

3.
基于改进梯度和自适应窗口的立体匹配算法   总被引:3,自引:0,他引:3  
祝世平  李政 《光学学报》2015,35(1):110003
立体匹配技术是计算机视觉领域的研究热点,由于问题本身的病态性,一直没有得到很好地解决。针对现有局部立体匹配算法精度不高以及易受光照失真影响的问题,提出了一种基于改进梯度匹配代价和自适应窗口的匹配算法。在传统梯度向量仅包含幅度信息的基础上,引入相位信息,并对原始匹配代价进行变换,进一步消除异常值;利用图像结构和色彩信息构建自适应窗口进行代价聚合;提出了一种局部视差直方图的视差精化方法,获得了高精度的视差图。实验结果表明,所提算法在Middlebury测试平台上平均误匹配误差为6.1%,且对光照失真条件具有较高的稳健性。  相似文献   

4.
吕朝辉  袁惇 《光学技术》2007,33(4):501-504
提出了一种新的自适应权值的立体匹配方法,在匹配中无需逐像素确定其支持窗口的尺寸。首先根据像素间的相似性和邻近性对匹配窗口内每一像素的支持权值进行调整,使与待匹配点位于同一区域的像素权值增大,然后在匹配的代价函数中引入视差平滑性约束项,从而获得最终视差。在Middlebury提供的标准图像上进行了测试。实验结果表明,该方法可以获得良好的视差图。  相似文献   

5.
针对立体匹配算法在图像非遮挡区域,特别是弱纹理区域误匹配率较高的问题,提出一种基于十字交叉窗口下自适应色彩权值和树形动态规划的立体匹配算法。首先结合颜色、梯度信息及Census变换作为相似性测度函数构建代价计算函数;然后以图像的距离和色彩信息构建自适应十字交叉窗口,并提出基于色彩权值的代价聚集方式;将树形结构动态规划算法的思想引入到视差计算,代替单独采用赢者通吃策略的方法,对视差进行全局优化;最后通过视差求精得到稠密视差图。实验结果表明,本文算法在Middlebury测试平台4幅标准图像上非遮挡区域的平均误匹配率为2.45%,同时对其他10组图像进行了对比评估,本文算法有效地提高了图像非遮挡区域匹配的准确率。  相似文献   

6.
针对现有局部立体匹配算法在弱纹理区域匹配精度低的问题,提出一种基于改进代价计算和自适应引导滤波代价聚合的局部立体匹配算法。该算法首先将增强后的梯度信息与基于增强梯度的Census变换相结合,构建代价计算函数;然后对图像的每一个像素构建自适应形状十字交叉窗口,并基于自适应窗口进行引导滤波代价聚合;最后通过视差计算和多步视差精化得到最终的视差图。实验结果表明,改进后的算法在Middlebury测试平台上对标准立体图像对的平均误匹配率为4.80%,与基于传统引导滤波器的立体匹配算法相比,本文算法在弱纹理区域取得更好的匹配结果。  相似文献   

7.
为降低双目立体匹配算法在视差不连续区域和噪声干扰情况下的误匹配率,提出了一种基于改进Census变换和动态规划的立体匹配算法。采用支持区域为十字交叉形状窗口且设有噪声容限的改进Census变换进行代价计算,提高了单像素匹配代价的可靠性;利用引导图滤波器快速有效地完成代价聚合;在视差选择阶段,设计了一种改进的动态规划算法,消除了扫描线效应,提高了匹配速度和正确率;经过视差后处理得到最终视差图。实验结果表明,该算法在Middlebury测试平台上的平均误匹配率为5.31%,在低纹理区域和视差不连续区域均能得到准确的视差,运算复杂度低且具有较好的稳健性。  相似文献   

8.
一种快速双目视觉立体匹配算法   总被引:11,自引:0,他引:11  
针对目前双目视觉立体匹配算法计算量过大、实时性不强的问题,提出了一种平行配置系统的快速立体匹配算法.利用两幅视图的差异将视图分为特征点和非特征点,然后对特征点采用WTA(winner-take-all)方法进行匹配,而对非特征点只进行简单的验证,最后得出致密的视差图.该算法利用视差的分段连续性,大大减少了运算量.实验结果表明,该算法提取的特征点集中于视差不连续区,与目前其它基于区域的匹配算法相比,该算法得到的误匹配像素百分比与其它算法相当,而计算速度却提高了一个数量级,并且边缘特征较好,是一种有效可行的高实时性立体匹配算法.  相似文献   

9.
基于PatchMatch(同时估计像素点的视差和法向量的3D标签)的方案已经在立体匹配中取得高精度的亚像素视差,但该类方法无法有效解决图像无纹理区域的错误匹配。针对这一问题,对LocalExp(local expansion move)算法进行了改进,并提出一种融合多维信息的自适应像素类别优化的立体匹配算法。该方法设计了一种交叉窗口,在窗口内基于颜色与颜色的自相关信息构建相关权重,并利用约束函数剔除匹配代价中的离群值;在PatchMatch的标签初始化阶段增加约束机制,改进视差标签的建议生成机制,并利用基于局部扩张运动的优化方法求解标签值;利用基于像素类别的填充策略进行视差优化。实验结果表明所提算法能够在Middlebury数据集上取得较低的匹配误差。  相似文献   

10.
水下环境中基于曲线约束的SIFT特征匹配算法研究   总被引:1,自引:0,他引:1  
张强  郝凯  李海滨 《光学学报》2014,34(2):215003-197
针对水下双目图像匹配时不再满足空气中极线约束条件以及尺度不变特征变换(SIFT)特征匹配算法处理水下图像误匹配率较高等问题,提出一种基于曲线约束的水下特征匹配算法。对双目摄像机进行标定获取相关参数,再获取参考图和待匹配图;利用SIFT算法对两幅图像进行匹配,同时利用由参考图提取的特征点推导出其在待匹配图上对应的曲线,将该曲线作为约束条件判定待匹配图上对应特征点是否在曲线上,从而剔除误匹配点,以达到提高精度的目的。实验结果表明,该算法优于SIFT算法,可以有效地剔除误匹配点,比SIFT算法匹配精度提高约12%,解决了SIFT算法在水下双目立体匹配中误匹配率高的问题。  相似文献   

11.
针对双目水下图像匹配不满足空气中常规极线约束的问题,提出一种基于深度约束的半全局算法以实现水下稠密立体匹配.首先采用深度约束确定匹配过程的深度约束搜索区域.然后,基于深度约束区域将绝对差值和梯度计算推广到二维区域并进行加权融合.在深度约束区域内的搜索过程中,采用胜者为王的策略确定某一视差值下的最佳行差及最佳行差下的匹配代价,并将其作为能量函数的数据项应用于半全局算法中,进行匹配代价的聚合.最后采用抛物线拟合法得到亚像素级的稠密视差图.在水下图片上进行的稠密立体匹配结果表明:相较于其他半全局匹配算法,本文算法在极大提高运行速度的前提下,可以获得良好的水下稠密立体匹配效果.  相似文献   

12.
基于十字靶标的双目立体测量系统标定   总被引:7,自引:2,他引:5  
孙楠  张丽艳  叶南  王宏涛 《光学学报》2012,32(4):412001-117
提出了一种基于十字靶标的双目立体测量系统标定方法。采用多视图几何约束和光束平差优化精确获得两相机内参数,同时得到在两相机各自坐标系下重建出的靶点三维坐标点集;由两组三维点集之间的刚体变换直接求得系统外参数。该方法只需双相机同时对十字靶标拍摄一次,再由两相机单独拍摄若干幅靶标图像即可,现场操作简单灵活。在标定结果的基础上,对长度为611.800mm的标尺进行多次测量,平均值为611.776mm,标准差为0.030mm。  相似文献   

13.
基于网格点投影灰度相似性的三维重建新方法   总被引:2,自引:1,他引:1  
徐刚  张文明  楼凤伟  李海滨  刘彬 《光学学报》2008,28(11):2175-2180
基于双目立体视觉的三维重构是计算机视觉技术的主要内容之一,在机器人视觉导航、航空测绘、医学成像和工业检测等很多领域都有广泛的应用.提出一种基于网格点投影灰度相似性的双日立体视觉的三维重建新方法.首先将被测物体所在的世界坐标系划分成问距卡日等的矩形网格,将网格节点作为潜在的物点投影到左右图像坐标系上,然后根据不同深度的空间点在两幅图像上相应的灰度相似性来判断被测物体在三维空间中的深度信息.通过Matlab平台下的仿真实验证明了本方法的三维重建效果和计箅效率都要优于传统方法.与传统的图像匹配方法相比,具有算法简单、速度快、精度高、且不受摄像装置非线性畸变影响的优点.  相似文献   

14.
昆虫(螳螂)复眼利用目标的动态差异实现立体视觉,具有视场大、计算简单、实时性高等特点,是立体视觉研究的新方向。为实现复眼立体视觉在机器人视觉导航中的应用,根据复眼结构以及信息处理机制,提出并研究了环形光电传感器的目标快速检测与定位方法。首先,搭建了基于60个光电二极管的等6°夹角分布式环形传感器,形成具有360°视场的环形仿生复眼;其次,建立了基于光流原理的运动目标方位角检测模型,采用傅里叶拟合法实现了方位角检测模型的优化,实现了运动目标方位角与目标距离大视野范围内的简单、快速检测。实验结果表明:1)可实现距离375 mm范围内运动速度为30 mm/s的目标方位角实时检测,测量误差在2°范围内;2)基于目标方位角检测模型,可实现双目阵列传感器在300 mm×375 mm视野重叠区域范围内、平均测量误差在10 mm范围内的立体视觉测距。基于光流的运动目标方位角检测模型可用于实现对运动目标空间位置的动态实时检测,在运动检测、视觉导航等领域具有广泛的应用前景。  相似文献   

15.
基于同心圆合成图像匹配的双目视觉标定   总被引:6,自引:1,他引:5  
侯俊捷  魏新国  孙军华 《光学学报》2012,32(3):315003-161
分析了双目视觉传感器的数学模型,提出了一种基于同心圆合成图像匹配的双目视觉传感器的标定方法。在测量范围内任意多次摆放同心圆靶标,由两台摄像机拍摄靶标图像。根据摄像机模型与已知同心圆在靶标坐标系上的位置关系,构造合成图像,将合成图像与观测图像进行相似度匹配,通过优化定位得到靶标上每个圆的圆心点图像坐标。利用左右图像对应的圆心图像坐标和双目视觉的约束关系,对双目视觉传感器参数进行非线性优化,并得到最优解。所提出的标定方法是在张正友方法的理论基础上,利用了图像的整体性进行的优化。实验结果表明,该方法提高了标定精度。  相似文献   

16.
基于神经网络的视觉系统标定方法   总被引:3,自引:1,他引:2  
为了解决摄像机标定存在的若干问题 ,根据立体视觉原理 ,提出了基于神经网络的双目视觉系统标定方法。通过对双目摄像机的有效视场分析 ,确定了一次测量面积 ,并把像对视差作为网络输入 ,建立空间点世界坐标与图像坐标非线性映射关系 ,使系统不经过复杂的摄像机内外参数标定 ,就能直接提取物体的三维信息 ,增加了系统的灵活性。实验证明 ,该方法有效可行  相似文献   

17.
自主研发了一种光笔式双目立体视觉大工件尺寸测量系统,对测量系统中特征点的提取及其匹配技术进行了研究。测量系统采用 Canny 算子和 Zernike 矩相结合的算法实现椭圆光斑的亚像素边缘提取,根据得到的亚像素边缘点,采用基于最小二乘的曲线拟合法得到椭圆光斑的中心坐标。针对特征点的匹配问题,提出了一种基于位置约束的快速匹配方法。实验结果显示:所提方法能提取到椭圆光斑亚像素边缘,可精确计算出椭圆光斑中心坐标,匹配率达到95%以上。  相似文献   

18.
胡春海  熊英 《光学学报》2008,28(s2):43-47
立体匹配通过寻找同一空间景物在不同视点下投影图像的像素间的一一对应关系, 最终得到该景物的视差图。在对匹配算法作了深入研究的基础上, 提出了一种利用图像分割的基于图割的立体匹配算法。算法把参考图分割成多个区域, 然后用平面公式在一个分割中建立视差。视差模板是从初始视差分割中提取的。每一个分割被分配到精确的视差模板。构建全局能量函数,能量函数的鲁棒最小化是由基于图割的最优化获得的。算法对低纹理区域和接近视差边界区域有很好的匹配效果, 同时, 又解决了传统的基于全局算法中计算量过大, 实时性不好的问题。实验表明, 本算法能满足高精度、高实时性要求。  相似文献   

19.
张琦  胡广地  李雨生  赵鑫 《应用光学》2018,39(6):832-838
针对不同空间尺度的车辆表现出显著不同的特征导致检测算法效率低、准确性差且单目难以准确获取车辆距离信息的问题,提出了一种改进Fast-RCNN的汽车目标检测法,利用双目视觉对车辆进行测距。首先利用双目立体相机采集前方图像并进行预处理,加载深度神经网络Fast-RCNN的训练数据,再针对汽车不同空间尺度引入多个内置的子网络,将来自所有子网络的输出自适应组合对车辆进行检测,然后利用SURF特征匹配算法进行左右图像的立体匹配,根据匹配数据进行三维重建并确定车辆质心坐标,从而测量出车辆与双目相机之间的距离。实验结果表明,所述算法可以实现对车辆的快速检测,检测时间比传统的Fast-RCNN缩短了42 ms,并且实现了对5 m范围车辆距离的准确测量,其误差仅为2.4%,精确度高,实时性好。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号