共查询到20条相似文献,搜索用时 15 毫秒
1.
2.
3.
《光学学报》2017,(12)
针对立体匹配算法在图像非遮挡区域,特别是弱纹理区域误匹配率较高的问题,提出一种基于十字交叉窗口下自适应色彩权值和树形动态规划的立体匹配算法。首先结合颜色、梯度信息及Census变换作为相似性测度函数构建代价计算函数;然后以图像的距离和色彩信息构建自适应十字交叉窗口,并提出基于色彩权值的代价聚集方式;将树形结构动态规划算法的思想引入到视差计算,代替单独采用赢者通吃策略的方法,对视差进行全局优化;最后通过视差求精得到稠密视差图。实验结果表明,本文算法在Middlebury测试平台4幅标准图像上非遮挡区域的平均误匹配率为2.45%,同时对其他10组图像进行了对比评估,本文算法有效地提高了图像非遮挡区域匹配的准确率。 相似文献
4.
5.
针对现有立体匹配算法对噪声敏感、易失真、在视差不连续区域与弱纹理区域误匹配率高的问题,提出一种改进Census变换与梯度融合的多尺度立体匹配算法。采用支持窗口内所有像素的加权平均灰度值作为Census变换的参考值,将Census代价与由水平和垂直方向归一化结合的梯度代价进行加权融合,通过设置噪声容限获得稳定的代价,提高了单像素匹配代价的可靠性;在多分辨率尺度下,采用改进引导滤波算法完成对匹配代价的聚合;通过视差提取获得视差图。实验结果表明,该算法在Middlebury测试平台上对标准立体图像对的平均误匹配率为4.74%,对27组扩展立体图像对的平均误匹配率为8.67%。该算法使得视差不连续区域与弱纹理区域的误匹配率进一步降低,且对噪声和光照等干扰表现出较好的稳健性。 相似文献
6.
7.
《光学学报》2020,(9)
提出一种基于引导图像和自适应支持域的局部立体匹配算法。首先对校正后的输入图像进行预处理得到引导图像;在匹配代价计算阶段,提出一种梯度计算方法,结合引导图像和输入图像的梯度信息,分别计算x和y方向的梯度,再与AD(absolute difference)和Census变换融合构建匹配代价计算函数;在代价聚合阶段,使用基于自适应支持域的导向滤波;在视差细化阶段,提出一套基于自适应支持域的多步细化方法,通过该方法得到最终的视差图。实验结果表明,视差细化后全部区域的平均误差和方均根误差平均减少43.7%和38%,非遮挡区域平均减少33.7%和30.9%,所提算法具有较好的鲁棒性并能获得精度较高的视差结果。 相似文献
8.
一种基于分割的可变权值和视差估计的立体匹配算法 总被引:1,自引:0,他引:1
立体匹配一直是计算机视觉研究领域中的热点和难点.是立体视觉中的关键技术之一.为了消除幕于局部图像的双目立体匹配的歧义性,提出一种基于图像分割及可变权值方窠的初始匹配和贪婪的后处理视差估计策略相结合的市体匹配算法.分割彩色立体图像对,利用分割自适应地分配权值来消除匹配特征相似的歧义性.计算匹配代价得到初始视差.接着,为了更好地消除弱纹理区域、重复纹理区域和宽遮挡区域等复杂歧义性,视差后处理中采用贪婪估计方案,包括基于分割的视差校准、窄遮挡处理及多方向自适应加权最小二乘拟合填充.实验结果表明,基于分割的本算法结构简单,能有效地提高处理局外点的稳健性,并生成高精度的稠密视差. 相似文献
9.
基于改进梯度和自适应窗口的立体匹配算法 总被引:3,自引:0,他引:3
立体匹配技术是计算机视觉领域的研究热点,由于问题本身的病态性,一直没有得到很好地解决。针对现有局部立体匹配算法精度不高以及易受光照失真影响的问题,提出了一种基于改进梯度匹配代价和自适应窗口的匹配算法。在传统梯度向量仅包含幅度信息的基础上,引入相位信息,并对原始匹配代价进行变换,进一步消除异常值;利用图像结构和色彩信息构建自适应窗口进行代价聚合;提出了一种局部视差直方图的视差精化方法,获得了高精度的视差图。实验结果表明,所提算法在Middlebury测试平台上平均误匹配误差为6.1%,且对光照失真条件具有较高的稳健性。 相似文献
10.
立体匹配通过寻找同一空间景物在不同视点下投影图像的像素间的一一对应关系, 最终得到该景物的视差图。在对匹配算法作了深入研究的基础上, 提出了一种利用图像分割的基于图割的立体匹配算法。算法把参考图分割成多个区域, 然后用平面公式在一个分割中建立视差。视差模板是从初始视差分割中提取的。每一个分割被分配到精确的视差模板。构建全局能量函数,能量函数的鲁棒最小化是由基于图割的最优化获得的。算法对低纹理区域和接近视差边界区域有很好的匹配效果, 同时, 又解决了传统的基于全局算法中计算量过大, 实时性不好的问题。实验表明, 本算法能满足高精度、高实时性要求。 相似文献
11.
三目自适应权值立体匹配和视差校准算法 总被引:8,自引:4,他引:4
立体匹配是计算机视觉研究中的关键问题.相比于双目视觉,三目视觉能够获得更多的信息和额外的极线约束消除立体匹配的歧义性.为了提高三目立体匹配的精度,提出一种基于自适应权值和视差校准的三日立体匹配方法.将双目视觉中有效的自适应权值窗选择算法应用到三目视觉中,进行匹配窗的选择;提出一种新的目标图像选择算法,能够合理利用平行基线三目立体视觉系统中不同目标图像提供的信息,有效地消除遮挡,提高匹配的精度;提出一种适用于三目视觉的视差校准算法,利用三目图像像素间的色彩相似性和距离约束将初始匹配的视差结果进行校准,得到最终的视差图.实验结果表明,本文算法结构简单,能够生成浓密、高精度的视差图. 相似文献
12.
基于PatchMatch(同时估计像素点的视差和法向量的3D标签)的方案已经在立体匹配中取得高精度的亚像素视差,但该类方法无法有效解决图像无纹理区域的错误匹配。针对这一问题,对LocalExp(local expansion move)算法进行了改进,并提出一种融合多维信息的自适应像素类别优化的立体匹配算法。该方法设计了一种交叉窗口,在窗口内基于颜色与颜色的自相关信息构建相关权重,并利用约束函数剔除匹配代价中的离群值;在PatchMatch的标签初始化阶段增加约束机制,改进视差标签的建议生成机制,并利用基于局部扩张运动的优化方法求解标签值;利用基于像素类别的填充策略进行视差优化。实验结果表明所提算法能够在Middlebury数据集上取得较低的匹配误差。 相似文献
13.
14.
《光学学报》2018,(12)
现有的多尺度立体匹配算法对各尺度的代价函数采用相同权值,而忽略了各尺度层对整个匹配代价的不同影响,增加了误匹配点。针对此问题,提出了自适应权值的跨尺度立体匹配算法框架。采用统一的代价聚合函数框架在不同尺度上进行代价匹配,并提出利用各像素窗口的信息熵作为不同尺度下匹配代价对整个匹配代价的影响因子;同时为了保证不同尺度下同一像素的代价一致性,在代价函数里加入正则化因子。本文算法框架可以应用在利用多尺度进行代价匹配的算法上,并使原有算法的准确率和稳健性得到提高。基于本文算法框架,分别采用不同代价聚合函数在Middlebury数据集上进行测试。为保证测试的公平性,各算法均未进行后续的视差求精步骤,实验表明,本文算法有效地提高了多尺度立体匹配的准确率和稳健性。 相似文献
15.
16.
为改善传统立体匹配视差图中目标边缘的毛刺现象,以及弱纹理和视差不连续区域的"阶梯效应"等,提出了一种结合局部二进制表示和超像素分割的立体匹配方法。首先融合二进制表示的窗口内像素的空间和颜色特征进行代价计算,并以此求得初始视差;然后将简单线性迭代聚类方法分割的结果作为像素的空间和颜色标记,为超像素内的目标边缘和其他像素点选择恰当的稳定点进行视差传播,以达到视差优化时边缘保持和空间平滑的目的。在Middlebury数据集上分别进行代价计算与优化方法的对比实验,结果表明,采用该算法获取的目标边缘的视差更为平滑,在左右视图中的遮挡区和不重叠区域获得的视差也比较准确,有效地降低了非遮挡区、全图、不连续区域的误匹配率。 相似文献
17.
提出了一种新的自适应权值的立体匹配方法,在匹配中无需逐像素确定其支持窗口的尺寸。首先根据像素间的相似性和邻近性对匹配窗口内每一像素的支持权值进行调整,使与待匹配点位于同一区域的像素权值增大,然后在匹配的代价函数中引入视差平滑性约束项,从而获得最终视差。在Middlebury提供的标准图像上进行了测试。实验结果表明,该方法可以获得良好的视差图。 相似文献
18.
19.
针对双目水下图像匹配不满足空气中常规极线约束的问题,提出一种基于深度约束的半全局算法以实现水下稠密立体匹配.首先采用深度约束确定匹配过程的深度约束搜索区域.然后,基于深度约束区域将绝对差值和梯度计算推广到二维区域并进行加权融合.在深度约束区域内的搜索过程中,采用胜者为王的策略确定某一视差值下的最佳行差及最佳行差下的匹配代价,并将其作为能量函数的数据项应用于半全局算法中,进行匹配代价的聚合.最后采用抛物线拟合法得到亚像素级的稠密视差图.在水下图片上进行的稠密立体匹配结果表明:相较于其他半全局匹配算法,本文算法在极大提高运行速度的前提下,可以获得良好的水下稠密立体匹配效果. 相似文献
20.
应用于多视点视频编码的基于深度特征的图像区域分割与区域视差估计 总被引:5,自引:2,他引:3
基于多视点视图深度特征,提出一种通过简单块匹配运算划分多视点视图区域并估计区域视差的算法.首先基于深度对象的概念确定图像中具有不同深度的区域数量以及这些区域对应的区域视差,再根据误差最小化准则初步确定每个图像块所属区域.当区域中图像块数量小于某个阈值时,采用区域合并算法将该区域中的每个图像块合并到与它的视差最为接近的其它图像区域,通过迭代形成最终的有效图像区域划分.实验表明,该算法能够以图像块为基本单元有效地划分各深度层区域,并准确估计对应的区域视差. 相似文献