共查询到20条相似文献,搜索用时 906 毫秒
1.
聚焦堆栈数据受到视差维分辨率低的限制,导致由聚焦堆栈数据估计的视差的精度低、鲁棒性差。从聚焦堆栈数据的视差维频谱优化出发,引入聚焦堆栈视差维滤波器,提出基于视差维滤波的聚焦堆栈视差维超分辨方法,实现高精度的稠密视差估计。通过聚焦堆栈的频谱分析,选取巴特沃斯滤波作为视差维滤波器,实现聚焦堆栈数据高保真的视差维超分辨。利用视差维超分辨后的稠密聚焦堆栈,基于Robust focus volume regularization(RFV)算法实现稠密、高精度视差估计。模拟数据与实际数据实验结果表明:视差维滤波能够实现高效的视差维超分辨和高精度的稠密视差估计。 相似文献
2.
3.
提出一种基于单目视觉的致密场景重建方法,以实现对环境快速,准确地三维立体化建模。该方法针对自由式手持单目相机,在并行跟踪与地图创建(PTAM)算法框架下准确地实现相机的自定位。在此基础上,选取关键帧处图像序列,构造变分模式下深度估计模型;运用离散空间采样法获取初始深度图,借助于原始对偶算法实现该深度模型的优化,并结合相机投影模型估计待求解场景的三维模型。在统一计算设备架构(CUDA)下,利用图形处理器(GPU)进一步实现了深度估计算法的并行优化,显著提高了算法处理的实时性。真实场景下实验结果验证了所提算法的有效性与可行性。 相似文献
4.
5.
6.
显微视觉自动聚焦研究 总被引:5,自引:0,他引:5
提出一种评估空域聚焦函数的方法。从计算时间与聚焦曲线变化率两个方面,提出四个参量作为评估依据.可从多个函数中筛选出最佳聚焦测度。针对研制的微对准装配自动聚焦系统的评估结果表明:灰度熵函数是适合于该系统的最佳聚焦测度。为克服聚焦搜索运动中的机械传动回差,提出不同于传统聚焦策略的“定位法”。该方法的核心是建立聚焦函数值与离焦量之间的函数关系,提出采用多项式拟合、高斯函数拟合以及样条插值拟合的方法可以构建这种函数关系;并给出了计算结果。最后综合灰度熵函数与定位法策略进行自动聚焦实验.得到自动聚焦精度为3.4μm;完成一次自动聚焦平均时间为3.3s。实验结果证明所述方法可以实现准确、实时地自动聚焦。 相似文献
7.
8.
9.
10.
构建了一种基于自监督的框架,该框架从单目立体内窥镜视频中提取多视图图像,利用图像中的底层三维(3D)信息构建对象的几何约束,实现软组织结构的准确重建。基于分割任意场景模型对内窥镜下的动态手术器械、静态腹腔场景及可形变软组织结构进行分割解耦。该框架利用简单的神经网络多层感知机来表示动态神经辐射场(NeRF)中运动手术器械和形变软组织结构,基于偏斜熵损失对手术场景中的手术器械、腔体场景和软组织结构进行正确分离。在通过使用单目立体内窥镜捕获机器人手术模拟器场景的数据集上,将所提方法的结果与其他方法进行定量定性比较。结果表明本文方法在处理腹腔体场景、软组织结构重建、手术器械的分割解耦,以及来自多视点的3D信息和运动对象的图像分割等方面显著优于当前的方法。 相似文献
11.
当前的虚拟校园三维场景构建方法是利用osgEarth获取GoogleEarth数据,构建虚拟校园三维地图,然后依据本地地形信息与三维场景模型完成对虚拟校园的三维场景构建。该方法在三维场景构建过程中没有考虑到校园后续建设发展,只凭现在所需进行三维场景构建,导致虚拟校园三维场景杂乱,存在虚拟校园三维场景构建顾虑不周的问题。为此,提出一种基于AutoCAD和3DSMAX的虚拟校园三维场景构建方法。该方法首先利用Kinect的RGB深度摄像头获取校园平面数据、影像数据和贴图资料,采用相机阵列合成算法对所得校园图像进行特征提取,然后依据非局部均值滤波方法对获取的校园图像进行去噪操作,最后利用边缘方向和梯度表示中的结构方向与强度,对校园图像外轮廓的纹理特征进行收敛,依据外轮廓纹理特征收敛实现校园图像内轮廓的准确定位,将校园图像与虚拟校园三维场景构建所需图像进行匹配,由此完成对虚拟校园三维场景的构建。实验结果证明,所提方法是虚拟校园三维场景构建领域革命性的突破,提高了学校的招生率,增加了校园文化历史的展现机会,为该领域的研究发展提供了有效依据。 相似文献
12.
针对先进驾驶辅助系统对车辆前视景深信息的需求,在无监督学习框架下提出了一种基于单目视觉的场景深度估计方法。为了降低不同尺寸的前视目标对景深估计结果的影响,采用金字塔结构对输入图像进行预处理;在训练过程中,将深度估计问题转化为图像重建问题,利用双目图像设计了新的损失函数代替真实深度标签,解决了真实场景景深数据难以获取的问题;将中间多尺度的视差图与原输入图像的尺寸统一,改善了深度图中的空洞现象,提升了景深估计精度。在KITTI和Make3D数据集上的定量与定性对比结果表明,本方法可以获得准确度较高的绝对景深数据,且具有良好的泛化能力。在真实道路场景下的实验结果表明,本方法可以利用单张车载前视图像得到对应的像素级景深信息。 相似文献
13.
14.
针对光场深度估计过程中数据量大、边缘处深度估计结果不准确问题,利用压缩感知原理重建光场,提出一种新的多信息融合的光场图像深度估计算法。利用压缩感知重建算法重建5×5视角光场数据,获取光场数据后首先移动子孔径实现重聚焦,然后利用角度像素块散焦线索和匹配线索计算出场景初始深度和置信度。计算图像边缘信息,通过融合初始深度、置信度、边缘信息获取最终深度。实现压缩光场仿真重建,并对仿真光场数据和公开光场数据进行深度估计,实验结果表明:可以仿真重建出5×5视角光场数据,且仿真重建的光场可用于深度估计。该深度估计算法在场景边缘处的深度估计结果边界清晰,层次分明,验证了重建光场深度估计的可行性与准确性。 相似文献
15.
放疗中基于闪烁体光场成像的3D剂量测量方法是,利用光场相机对射线在闪烁体沉积能量所产生的闪烁光进行拍照,给出每一个聚焦层的光分布后进行三维重建,进而得出剂量的三维分布。光场相机所获取图像的重聚焦位置影响闪烁光三维重建的准确性,作者提出利用棋盘格标定板进行重聚焦位置标定的方法。使用Lytro Illum光场相机拍摄置于已知位置的棋盘格标定板,经光场数据处理得到焦点堆栈序列,利用刃边法得到所有重聚焦像的高斯离焦参数σ,经比较后获得最小σ对应的重聚焦参数α,最终给出若干α和重聚焦位置的对应关系,最终完成重聚焦位置标定。与常用的刻度尺标定方法相比,高斯离焦参数减小2%~10%,有利于放疗3D剂量测量精度的提高。 相似文献
16.
17.
《光学学报》2020,(8)
合成孔径成像技术利用虚拟大尺寸孔径可实现局部被遮挡目标的有效探测,但是当场景中存在强背向散射时,重聚焦图像质量大大降低。针对上述问题,提出了一种基于共焦照明的合成孔径成像方法。该方法根据场景目标分布的深度信息对照明光源进行调制,有效实现聚焦面目标和非聚焦面目标接收的光照度差异;同时结合合成孔径成像重聚焦方法,实现了局部被遮挡的共焦照明面目标的高质量重建。利用反镜阵列搭建了共焦照明合成孔径成像系统,对指定深度目标进行共焦照明重聚焦成像,结果表明,所提方法能够有效区分场景中聚焦面和非聚焦面目标反射光的强度,并能获取共焦照明面目标的高质量图像信息,效果远远优于现有的合成孔径成像方法。 相似文献
18.
基于全固态电子器件和零中频机制,设计了基于调频连续波的太赫兹无损检测成像系统。所提系统的有效频率范围为9.375~13.75 GHz,经24倍频后自由空间中的频率范围为0.225~0.330 THz。采用单个喇叭天线与定向耦合器结合,实现收发一体,并利用光学透镜组对太赫兹波束进行准直聚焦。对准光系统的波束质量进行了优化,提高了系统的信噪比,确保了在现有参数条件下的最佳空间分辨率。同时,采用相位聚焦的方法对系统进行了非线性矫正,使得深度分辨率接近理论分辨率。系统采用直线扫描和旋转扫描组合的方式,实现了柱坐标三维数据的获取。利用所提系统对高压绝缘端子进行了检测评估,并重构了全视角透视图像,实现了目标三维结构在实空间和像空间的孪生对应。此外,所提系统能够准确地显示绝缘端子内部的异常区域,有助于直观地评估被检测目标的内部状态,进而可以进一步满足工业领域无损检测的需求。 相似文献
19.
20.
一体化摄像机的自动聚焦过程就是镜头按照自动聚焦搜索算法寻找图像清晰度评价函数最大值的过程,自动聚焦搜索算法对自动聚焦过程的实时性和准确率影响很大。为了解决现有算法在光源场景和无细节场景下聚焦失败的问题,提出了一种基于场景预测的聚焦搜索算法,该算法对成像场景进行智能分析、判断并分类,在不同的场景下采用不同的搜索策略,提高了自动聚焦搜索的稳定性和准确率。同时,针对现有算法在散焦区判断聚焦曲线峰值方向困难的问题,引入模糊度评价模型,该模型能够准确判断聚焦曲线峰值方向,分析实验数据发现,新的算法在散焦区的聚焦速度提升了24.3%。实验证明,新的算法在基于海思Hi3518A处理器搭建的一体化摄像机成像系统中具有很高的应用价值。 相似文献