共查询到20条相似文献,搜索用时 899 毫秒
1.
2.
《光学学报》2020,(9)
提出一种基于引导图像和自适应支持域的局部立体匹配算法。首先对校正后的输入图像进行预处理得到引导图像;在匹配代价计算阶段,提出一种梯度计算方法,结合引导图像和输入图像的梯度信息,分别计算x和y方向的梯度,再与AD(absolute difference)和Census变换融合构建匹配代价计算函数;在代价聚合阶段,使用基于自适应支持域的导向滤波;在视差细化阶段,提出一套基于自适应支持域的多步细化方法,通过该方法得到最终的视差图。实验结果表明,视差细化后全部区域的平均误差和方均根误差平均减少43.7%和38%,非遮挡区域平均减少33.7%和30.9%,所提算法具有较好的鲁棒性并能获得精度较高的视差结果。 相似文献
3.
《光学学报》2017,(12)
针对立体匹配算法在图像非遮挡区域,特别是弱纹理区域误匹配率较高的问题,提出一种基于十字交叉窗口下自适应色彩权值和树形动态规划的立体匹配算法。首先结合颜色、梯度信息及Census变换作为相似性测度函数构建代价计算函数;然后以图像的距离和色彩信息构建自适应十字交叉窗口,并提出基于色彩权值的代价聚集方式;将树形结构动态规划算法的思想引入到视差计算,代替单独采用赢者通吃策略的方法,对视差进行全局优化;最后通过视差求精得到稠密视差图。实验结果表明,本文算法在Middlebury测试平台4幅标准图像上非遮挡区域的平均误匹配率为2.45%,同时对其他10组图像进行了对比评估,本文算法有效地提高了图像非遮挡区域匹配的准确率。 相似文献
4.
5.
《光学学报》2018,(12)
现有的多尺度立体匹配算法对各尺度的代价函数采用相同权值,而忽略了各尺度层对整个匹配代价的不同影响,增加了误匹配点。针对此问题,提出了自适应权值的跨尺度立体匹配算法框架。采用统一的代价聚合函数框架在不同尺度上进行代价匹配,并提出利用各像素窗口的信息熵作为不同尺度下匹配代价对整个匹配代价的影响因子;同时为了保证不同尺度下同一像素的代价一致性,在代价函数里加入正则化因子。本文算法框架可以应用在利用多尺度进行代价匹配的算法上,并使原有算法的准确率和稳健性得到提高。基于本文算法框架,分别采用不同代价聚合函数在Middlebury数据集上进行测试。为保证测试的公平性,各算法均未进行后续的视差求精步骤,实验表明,本文算法有效地提高了多尺度立体匹配的准确率和稳健性。 相似文献
6.
7.
在双目立体视觉系统中,立体匹配是关键步骤之一,其精度对后续的研究有着重大影响。Census算法由于具有简单明晰、运行效果好、实时性强等优点,被广泛采用。但Census立体匹配算法存在变换窗口中心点易受外界条件干扰、深度不连续区域匹配精度低等缺点,由此提出了一种新型的基于Census变换及引导滤波器的立体匹配算法。在Census变换阶段通过计算变换窗口周围的像素的平均值,降低了外界干扰的影响,同时在代价聚合阶段引入具有包边特性且计算量不依赖于滤波核大小的引导滤波器作为自适应权重。实验结果表明:所提算法在Middlebury测试平台上平均误匹配误差为6.03%,相较于目前Census立体匹配算法16.2%的平均误匹配率,匹配效果明显提高,且算法效率较高,具有较好的辐射不变性。 相似文献
8.
针对基于树结构的代价聚合方法中只利用颜色信息选择权值支持区域时,在图像边界区域易产生误匹配的问题,提出了一种基于水平树结构的可变权重代价聚合立体匹配算法。采用水平树代价聚合得到初始视差值,结合初始视差值与颜色信息重构水平树,在更新后的树结构上进行代价聚合,得到最终视差图。在视差后处理阶段,提出了一种改进的非局部视差后处理算法,将不满足左右一致性匹配的像素点引入匹配代价量构造中,提高了最终视差图的匹配精度。在Middlebury数据集的31对图像上进行测试,结果表明,未进行视差后处理时所提算法在未遮挡区域的平均误匹配率为6.96%,代价聚合平均耗时1.52s。 相似文献
9.
基于改进梯度和自适应窗口的立体匹配算法 总被引:3,自引:0,他引:3
立体匹配技术是计算机视觉领域的研究热点,由于问题本身的病态性,一直没有得到很好地解决。针对现有局部立体匹配算法精度不高以及易受光照失真影响的问题,提出了一种基于改进梯度匹配代价和自适应窗口的匹配算法。在传统梯度向量仅包含幅度信息的基础上,引入相位信息,并对原始匹配代价进行变换,进一步消除异常值;利用图像结构和色彩信息构建自适应窗口进行代价聚合;提出了一种局部视差直方图的视差精化方法,获得了高精度的视差图。实验结果表明,所提算法在Middlebury测试平台上平均误匹配误差为6.1%,且对光照失真条件具有较高的稳健性。 相似文献
10.
为了提高块匹配运动估计快速算法的搜索速度、精度和鲁棒性,提出了一种多起点并发式快速运动估计搜索方法。根据匹配块搜索的特性,提出了均匀选取多个起始点的方法,同时根据搜索区域的大小制定了自适应的限制条件和进度表,使得算法的收敛速度有了很大的提高。该算法在迭代过程中不但能够接受使目标向好的方向前进的解,而且能够在一定限度内接受使目标恶化的解,这使得算法能够有效地跳出局部极小的陷阱。使用基于TMS320C6415芯片的DSP图像处理系统对抖动视频图像序列进行实验。实验结果表明,当视频图像为PAL制,分辨率为720×576个像素,并且相邻图像间的抖动范围为±40个像素时,使用新提出的方法,匹配参数的计算量不大于使用全域匹配方法计算量的1/8,并且搜索精度远高于其他传统的快速搜索方法。 相似文献
11.
12.
13.
14.
为提高立体匹配精度,提出一种超像素分割约束的自适应SAD与Census融合的立体匹配算法。针对SAD在匹配过程中无差别使用窗口内像素点灰度值引入的误差,首先用简单线性迭代聚类(SLIC)超像素分割方法对待匹配图进行处理,将分割结果结合窗口内邻域像素点和中心像素点的距离给SAD立体匹配过程中窗口内像素点灰度值赋予适当的权重;进行Census立体匹配过程,并对两种算法的匹配结果进行自适应融合;对初始视差图进行左右一致性检测和遮挡点填充等后处理过程。实验表明,提出算法与传统算法相比,匹配效果显著提高,可以很好地适应细节丰富的图像并且对于有垂直位移的图组也有较好的适应性,对于图像对比度及光照变化具有鲁棒性。 相似文献
15.
三目自适应权值立体匹配和视差校准算法 总被引:8,自引:4,他引:4
立体匹配是计算机视觉研究中的关键问题.相比于双目视觉,三目视觉能够获得更多的信息和额外的极线约束消除立体匹配的歧义性.为了提高三目立体匹配的精度,提出一种基于自适应权值和视差校准的三日立体匹配方法.将双目视觉中有效的自适应权值窗选择算法应用到三目视觉中,进行匹配窗的选择;提出一种新的目标图像选择算法,能够合理利用平行基线三目立体视觉系统中不同目标图像提供的信息,有效地消除遮挡,提高匹配的精度;提出一种适用于三目视觉的视差校准算法,利用三目图像像素间的色彩相似性和距离约束将初始匹配的视差结果进行校准,得到最终的视差图.实验结果表明,本文算法结构简单,能够生成浓密、高精度的视差图. 相似文献
16.
高光谱图像具有较高的空间分辨率,蕴含着丰富的空间光谱信息,近年来被广泛用于城市地物分类中。在高光谱图像分类过程中,空间光谱特征的提取直接影响着分类精度;传统的高光谱图像特征提取方法只利用了4或8邻域的像素进行简单卷积处理,因而丢失了大量的复杂、有效信息;卷积神经网络(CNN)虽然可以自动提取空间光谱特征,在保留图像空间信息的同时,简化网络模型,但是,随着网络深度增加,网络分类产生退化现象,而且网络间缺乏相关信息的互补性,从而影响分类精度。该工作引入CNN自动提取空间光谱特征,并且针对CNN深度增加所导致的退化问题,设计了面向地物分类的高光谱特征融合残差网络。首先,为了降低高光谱图像的光谱冗余度,利用PCA提取主要光谱波段;然后,为了逐级提取光谱图像的空间光谱特征,定义了卷积核为16,32,64的低、中、高3层残差网络模块,并利用64个1×1的卷积核对3层特征输出进行卷积,完成维度匹配与特征图融合;接着,对融合后的特征图进行全局平均池化(GAP)生成用于分类的特征向量;最后,引入具有可调节机制的Large-Margin Softmax损失函数,监督模型完成训练过程,实现高光谱图像分类。实验采用Indian Pines,University of Pavia和Salinas地区的高光谱图像来验证方法有效性,设置批次训练的样本集为100,网络训练的初始学习率为0.1,当损失函数稳定后学习率降低为0.001,动量为0.9,权重延迟为0.000 1,最大训练迭代次数为2×104,当3个数据集的样本块像素分别设置为25×25,23×23,27×27,网络深度分别为28,32和28时,3个数据集的分类准确率最高,其平均总体准确率(OA)为98.75%、平均准确率(AA)的评价值为98.1%,平均Kappa系数为0.98。实验结果表明,基于残差网络的分类方法能够自动学习更丰富的空间光谱特征,残差网络层数的增加和不同网络层融合可以提高高光谱分类精度;Large-Margin Softmax实现了类内紧凑和类间分离,可以进一步提高高光谱图像分类精度。 相似文献
17.
18.
针对以可见光图像为基准、红外图像为实测的景象匹配问题,提出了一种基于BP神经网络的景象匹配方法。该方法首先抽取满足平移、旋转、尺度不变性的Krawtchouk不变矩作为红外目标的特征描述并构造特征向量,随后,基于主分量分析法消除特征向量各个分量间的相关性,去掉多个对目标匹配识别贡献不大的特征的影响,形成描述目标的有效特征向量。接下来,构造三层BP神经网络,以有效匹配特征作为输入,匹配位置作为输出,按照经验公式确定隐层节点个数,基于样本集对红外目标在可见光基准图像中的匹配过程进行训练,最终形成智能化景象匹配识别器。实验结果表明,与常用的景象匹配算法相比,提出方法不仅具有更高的匹配精度和速度,而且鲁棒性好,能抵抗实测图像的旋转几何畸变。 相似文献
19.
基于PatchMatch(同时估计像素点的视差和法向量的3D标签)的方案已经在立体匹配中取得高精度的亚像素视差,但该类方法无法有效解决图像无纹理区域的错误匹配。针对这一问题,对LocalExp(local expansion move)算法进行了改进,并提出一种融合多维信息的自适应像素类别优化的立体匹配算法。该方法设计了一种交叉窗口,在窗口内基于颜色与颜色的自相关信息构建相关权重,并利用约束函数剔除匹配代价中的离群值;在PatchMatch的标签初始化阶段增加约束机制,改进视差标签的建议生成机制,并利用基于局部扩张运动的优化方法求解标签值;利用基于像素类别的填充策略进行视差优化。实验结果表明所提算法能够在Middlebury数据集上取得较低的匹配误差。 相似文献
20.
针对双目水下图像匹配不满足空气中常规极线约束的问题,提出一种基于深度约束的半全局算法以实现水下稠密立体匹配.首先采用深度约束确定匹配过程的深度约束搜索区域.然后,基于深度约束区域将绝对差值和梯度计算推广到二维区域并进行加权融合.在深度约束区域内的搜索过程中,采用胜者为王的策略确定某一视差值下的最佳行差及最佳行差下的匹配代价,并将其作为能量函数的数据项应用于半全局算法中,进行匹配代价的聚合.最后采用抛物线拟合法得到亚像素级的稠密视差图.在水下图片上进行的稠密立体匹配结果表明:相较于其他半全局匹配算法,本文算法在极大提高运行速度的前提下,可以获得良好的水下稠密立体匹配效果. 相似文献