首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 15 毫秒
1.
为降低双目立体匹配算法在视差不连续区域和噪声干扰情况下的误匹配率,提出了一种基于改进Census变换和动态规划的立体匹配算法。采用支持区域为十字交叉形状窗口且设有噪声容限的改进Census变换进行代价计算,提高了单像素匹配代价的可靠性;利用引导图滤波器快速有效地完成代价聚合;在视差选择阶段,设计了一种改进的动态规划算法,消除了扫描线效应,提高了匹配速度和正确率;经过视差后处理得到最终视差图。实验结果表明,该算法在Middlebury测试平台上的平均误匹配率为5.31%,在低纹理区域和视差不连续区域均能得到准确的视差,运算复杂度低且具有较好的稳健性。  相似文献   

2.
针对现有局部立体匹配算法在弱纹理区域匹配精度低的问题,提出一种基于改进代价计算和自适应引导滤波代价聚合的局部立体匹配算法。该算法首先将增强后的梯度信息与基于增强梯度的Census变换相结合,构建代价计算函数;然后对图像的每一个像素构建自适应形状十字交叉窗口,并基于自适应窗口进行引导滤波代价聚合;最后通过视差计算和多步视差精化得到最终的视差图。实验结果表明,改进后的算法在Middlebury测试平台上对标准立体图像对的平均误匹配率为4.80%,与基于传统引导滤波器的立体匹配算法相比,本文算法在弱纹理区域取得更好的匹配结果。  相似文献   

3.
针对立体匹配算法在图像非遮挡区域,特别是弱纹理区域误匹配率较高的问题,提出一种基于十字交叉窗口下自适应色彩权值和树形动态规划的立体匹配算法。首先结合颜色、梯度信息及Census变换作为相似性测度函数构建代价计算函数;然后以图像的距离和色彩信息构建自适应十字交叉窗口,并提出基于色彩权值的代价聚集方式;将树形结构动态规划算法的思想引入到视差计算,代替单独采用赢者通吃策略的方法,对视差进行全局优化;最后通过视差求精得到稠密视差图。实验结果表明,本文算法在Middlebury测试平台4幅标准图像上非遮挡区域的平均误匹配率为2.45%,同时对其他10组图像进行了对比评估,本文算法有效地提高了图像非遮挡区域匹配的准确率。  相似文献   

4.
针对Census变换易受噪声影响使得立体匹配算法难以获取高匹配精度的问题,提出了一种改进Census变换和异常值剔除的抗噪立体匹配算法.在初始匹配代价阶段,该方法首先将窗口邻域中值作为参考值并通过映射函数控制异常值,提高了单像素匹配代价的可靠性;然后在代价聚合阶段,对动态聚合窗口中初始代价值进行异常值剔除;最后通过视差计算、视差优化得到最终的视差图.在VS2013软件平台上采用Middlebury标准测试图对初始匹配代价、代价聚合、最终视差图阶段进行测试.实验结果表明,本文算法的抗噪性能优于现有Census变换算法,且错误匹配率达到5.71%.  相似文献   

5.
针对现有立体匹配算法对噪声敏感、易失真、在视差不连续区域与弱纹理区域误匹配率高的问题,提出一种改进Census变换与梯度融合的多尺度立体匹配算法。采用支持窗口内所有像素的加权平均灰度值作为Census变换的参考值,将Census代价与由水平和垂直方向归一化结合的梯度代价进行加权融合,通过设置噪声容限获得稳定的代价,提高了单像素匹配代价的可靠性;在多分辨率尺度下,采用改进引导滤波算法完成对匹配代价的聚合;通过视差提取获得视差图。实验结果表明,该算法在Middlebury测试平台上对标准立体图像对的平均误匹配率为4.74%,对27组扩展立体图像对的平均误匹配率为8.67%。该算法使得视差不连续区域与弱纹理区域的误匹配率进一步降低,且对噪声和光照等干扰表现出较好的稳健性。  相似文献   

6.
提出一种基于图像分割的稠密立体匹配算法,该算法将灰度-梯度算法与零均值归一化互相关(ZNCC)算法相结合生成匹配代价,利用SLIC(Simple Liner Iterative Cluster)算法对图像进行分割,基于视差图和超像素更新了匹配代价。在视差后处理阶段,基于左右一致性检验(LRC)、孔洞填充和十字交叉自适应窗口加权中值滤波的方法减小视差图的误匹配率。利用Middlebury数据集的4组图像进行测试,测试结果表明,平均误匹配率为4.99%。  相似文献   

7.
提出一种基于引导图像和自适应支持域的局部立体匹配算法。首先对校正后的输入图像进行预处理得到引导图像;在匹配代价计算阶段,提出一种梯度计算方法,结合引导图像和输入图像的梯度信息,分别计算x和y方向的梯度,再与AD(absolute difference)和Census变换融合构建匹配代价计算函数;在代价聚合阶段,使用基于自适应支持域的导向滤波;在视差细化阶段,提出一套基于自适应支持域的多步细化方法,通过该方法得到最终的视差图。实验结果表明,视差细化后全部区域的平均误差和方均根误差平均减少43.7%和38%,非遮挡区域平均减少33.7%和30.9%,所提算法具有较好的鲁棒性并能获得精度较高的视差结果。  相似文献   

8.
一种基于分割的可变权值和视差估计的立体匹配算法   总被引:1,自引:0,他引:1  
立体匹配一直是计算机视觉研究领域中的热点和难点.是立体视觉中的关键技术之一.为了消除幕于局部图像的双目立体匹配的歧义性,提出一种基于图像分割及可变权值方窠的初始匹配和贪婪的后处理视差估计策略相结合的市体匹配算法.分割彩色立体图像对,利用分割自适应地分配权值来消除匹配特征相似的歧义性.计算匹配代价得到初始视差.接着,为了更好地消除弱纹理区域、重复纹理区域和宽遮挡区域等复杂歧义性,视差后处理中采用贪婪估计方案,包括基于分割的视差校准、窄遮挡处理及多方向自适应加权最小二乘拟合填充.实验结果表明,基于分割的本算法结构简单,能有效地提高处理局外点的稳健性,并生成高精度的稠密视差.  相似文献   

9.
基于改进梯度和自适应窗口的立体匹配算法   总被引:3,自引:0,他引:3  
祝世平  李政 《光学学报》2015,35(1):110003
立体匹配技术是计算机视觉领域的研究热点,由于问题本身的病态性,一直没有得到很好地解决。针对现有局部立体匹配算法精度不高以及易受光照失真影响的问题,提出了一种基于改进梯度匹配代价和自适应窗口的匹配算法。在传统梯度向量仅包含幅度信息的基础上,引入相位信息,并对原始匹配代价进行变换,进一步消除异常值;利用图像结构和色彩信息构建自适应窗口进行代价聚合;提出了一种局部视差直方图的视差精化方法,获得了高精度的视差图。实验结果表明,所提算法在Middlebury测试平台上平均误匹配误差为6.1%,且对光照失真条件具有较高的稳健性。  相似文献   

10.
胡春海  熊英 《光学学报》2008,28(s2):43-47
立体匹配通过寻找同一空间景物在不同视点下投影图像的像素间的一一对应关系, 最终得到该景物的视差图。在对匹配算法作了深入研究的基础上, 提出了一种利用图像分割的基于图割的立体匹配算法。算法把参考图分割成多个区域, 然后用平面公式在一个分割中建立视差。视差模板是从初始视差分割中提取的。每一个分割被分配到精确的视差模板。构建全局能量函数,能量函数的鲁棒最小化是由基于图割的最优化获得的。算法对低纹理区域和接近视差边界区域有很好的匹配效果, 同时, 又解决了传统的基于全局算法中计算量过大, 实时性不好的问题。实验表明, 本算法能满足高精度、高实时性要求。  相似文献   

11.
三目自适应权值立体匹配和视差校准算法   总被引:8,自引:4,他引:4  
顾征  苏显渝 《光学学报》2008,28(4):734-738
立体匹配是计算机视觉研究中的关键问题.相比于双目视觉,三目视觉能够获得更多的信息和额外的极线约束消除立体匹配的歧义性.为了提高三目立体匹配的精度,提出一种基于自适应权值和视差校准的三日立体匹配方法.将双目视觉中有效的自适应权值窗选择算法应用到三目视觉中,进行匹配窗的选择;提出一种新的目标图像选择算法,能够合理利用平行基线三目立体视觉系统中不同目标图像提供的信息,有效地消除遮挡,提高匹配的精度;提出一种适用于三目视觉的视差校准算法,利用三目图像像素间的色彩相似性和距离约束将初始匹配的视差结果进行校准,得到最终的视差图.实验结果表明,本文算法结构简单,能够生成浓密、高精度的视差图.  相似文献   

12.
基于PatchMatch(同时估计像素点的视差和法向量的3D标签)的方案已经在立体匹配中取得高精度的亚像素视差,但该类方法无法有效解决图像无纹理区域的错误匹配。针对这一问题,对LocalExp(local expansion move)算法进行了改进,并提出一种融合多维信息的自适应像素类别优化的立体匹配算法。该方法设计了一种交叉窗口,在窗口内基于颜色与颜色的自相关信息构建相关权重,并利用约束函数剔除匹配代价中的离群值;在PatchMatch的标签初始化阶段增加约束机制,改进视差标签的建议生成机制,并利用基于局部扩张运动的优化方法求解标签值;利用基于像素类别的填充策略进行视差优化。实验结果表明所提算法能够在Middlebury数据集上取得较低的匹配误差。  相似文献   

13.
针对现有局部立体匹配算法在弱纹理表面、深度不连续处等特定区域匹配精度低、实时性难以满足要求等问题,提出了一种基于跨尺度引导图像滤波的稠密立体匹配算法。利用图像分割技术对立体图像进行预分割,得到分割区域内像素的聚合半径;以此半径为指导,在立体图代价空间中以3种不同尺寸的核进行滤波,引入正则化项确保聚合代价的一致性,以得到更有效的聚合代价;运用简单高效的贪心策略获取初步视差。基于Middlebury测试平台的实验结果表明所提算法兼具实时性和高效性。  相似文献   

14.
现有的多尺度立体匹配算法对各尺度的代价函数采用相同权值,而忽略了各尺度层对整个匹配代价的不同影响,增加了误匹配点。针对此问题,提出了自适应权值的跨尺度立体匹配算法框架。采用统一的代价聚合函数框架在不同尺度上进行代价匹配,并提出利用各像素窗口的信息熵作为不同尺度下匹配代价对整个匹配代价的影响因子;同时为了保证不同尺度下同一像素的代价一致性,在代价函数里加入正则化因子。本文算法框架可以应用在利用多尺度进行代价匹配的算法上,并使原有算法的准确率和稳健性得到提高。基于本文算法框架,分别采用不同代价聚合函数在Middlebury数据集上进行测试。为保证测试的公平性,各算法均未进行后续的视差求精步骤,实验表明,本文算法有效地提高了多尺度立体匹配的准确率和稳健性。  相似文献   

15.
《光学技术》2013,(6):510-516
立体匹配,其目的是在对两幅存在一定视差的图像进行匹配后,获得两幅图像精确的视差图,是计算机视觉领域的重点和难点问题。为了快速、高效地获得高精度的稠密视差图,在充分研究了基于边缘特征的立体匹配和基于局部窗口的立体匹配两类算法的基础上,提出了一种基于局域边缘特征的自适应立体匹配算法。首先该算法自适应地选择局部匹配窗口大小,并计算其中相应位置的权值,实现初次匹配,然后再以基于边缘特征匹配获得的高精度稀疏视差图作为约束,修正部分误匹配点,最终获得准确、稠密的视差图。实验表明,该算法具良好的实验结果和较大的实用价值。  相似文献   

16.
为改善传统立体匹配视差图中目标边缘的毛刺现象,以及弱纹理和视差不连续区域的"阶梯效应"等,提出了一种结合局部二进制表示和超像素分割的立体匹配方法。首先融合二进制表示的窗口内像素的空间和颜色特征进行代价计算,并以此求得初始视差;然后将简单线性迭代聚类方法分割的结果作为像素的空间和颜色标记,为超像素内的目标边缘和其他像素点选择恰当的稳定点进行视差传播,以达到视差优化时边缘保持和空间平滑的目的。在Middlebury数据集上分别进行代价计算与优化方法的对比实验,结果表明,采用该算法获取的目标边缘的视差更为平滑,在左右视图中的遮挡区和不重叠区域获得的视差也比较准确,有效地降低了非遮挡区、全图、不连续区域的误匹配率。  相似文献   

17.
吕朝辉  袁惇 《光学技术》2007,33(4):501-504
提出了一种新的自适应权值的立体匹配方法,在匹配中无需逐像素确定其支持窗口的尺寸。首先根据像素间的相似性和邻近性对匹配窗口内每一像素的支持权值进行调整,使与待匹配点位于同一区域的像素权值增大,然后在匹配的代价函数中引入视差平滑性约束项,从而获得最终视差。在Middlebury提供的标准图像上进行了测试。实验结果表明,该方法可以获得良好的视差图。  相似文献   

18.
《光学技术》2021,47(4):390-397
针对数字散斑投影三维测量技术中的立体匹配问题,提出基于反向合成高斯牛顿的半全局立体匹配算法。该算法采用基于Census变换的匹配代价值来衡量像素点间的相似性,通过代价聚合算法增强匹配代价对噪声的鲁棒性;在此基础上,提出基于一阶形函数的反向合成高斯牛顿算法,实现亚像素级别的视差优化;最后,提出耦合唯一性检查、左右一致性检查以及连通区域约束的错误视差剔除算法,消除由遮挡和噪声引起的错误视差。实验结果表明,该算法可精确、稠密、完整地重建出复杂物体的三维形貌,重建精度优于0.06mm。  相似文献   

19.
针对双目水下图像匹配不满足空气中常规极线约束的问题,提出一种基于深度约束的半全局算法以实现水下稠密立体匹配.首先采用深度约束确定匹配过程的深度约束搜索区域.然后,基于深度约束区域将绝对差值和梯度计算推广到二维区域并进行加权融合.在深度约束区域内的搜索过程中,采用胜者为王的策略确定某一视差值下的最佳行差及最佳行差下的匹配代价,并将其作为能量函数的数据项应用于半全局算法中,进行匹配代价的聚合.最后采用抛物线拟合法得到亚像素级的稠密视差图.在水下图片上进行的稠密立体匹配结果表明:相较于其他半全局匹配算法,本文算法在极大提高运行速度的前提下,可以获得良好的水下稠密立体匹配效果.  相似文献   

20.
基于多视点视图深度特征,提出一种通过简单块匹配运算划分多视点视图区域并估计区域视差的算法.首先基于深度对象的概念确定图像中具有不同深度的区域数量以及这些区域对应的区域视差,再根据误差最小化准则初步确定每个图像块所属区域.当区域中图像块数量小于某个阈值时,采用区域合并算法将该区域中的每个图像块合并到与它的视差最为接近的其它图像区域,通过迭代形成最终的有效图像区域划分.实验表明,该算法能够以图像块为基本单元有效地划分各深度层区域,并准确估计对应的区域视差.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号