共查询到20条相似文献,搜索用时 671 毫秒
1.
多相机系统的标定是立体视觉测量中的一个重要问题。而当各相机间公共视场较小或无公共视场时,标定参照物不能同时出现在所有相机的公共视场,因此无法求解系统中多相机的相对位置关系。针对该类问题,论文在二维靶标标定法的基础上,提出了一种基于两轴转台的无公共视场相机位置关系的求解方法。将待标定系统固定在转台上,利用转台转动确定靶标坐标系与转台坐标系之间的相对关系;通过转动转台使二维靶标依次进入每个相机视场以分别确定转动后每个相机在靶标坐标系中的位置,并记录转动的角度;最后,结合靶标坐标系与转台坐标系关系,求解各相机之间的相对位置关系。实验结果表明,该方法具有可操作性,解算误差在0.5%以内,可较准确地确定多个光轴之间角度较大的非共视场相机位置关系。 相似文献
2.
面向大视场视觉测量的摄像机标定技术 总被引:7,自引:0,他引:7
提出了一种面向大视场高精度视觉测量的摄像机标定新方法,该方法采用亮度自适应的单个红外发光二极管(IR-LED)作为目标靶点,将该靶点固定在三坐标测量机的测头上,并依次精确移动至预先设定的空间位置,每次靶点到达设定的空间位置时,摄像机对靶点进行图像采集。利用三坐标测量机的精确位移,在三维空间构成一个虚拟立体靶标。针对虚拟立体靶标在大视场摄像机标定中只能覆盖一小部分标定空间的问题,通过自由移动摄像机在多个方位对虚拟立体靶标进行拍摄,使得多个虚拟立体靶标分布于整个标定空间。摄像机在每个方位对虚拟立体靶标的拍摄都标定出一组摄像机的内、外参数,然后以摄像机内参数和摄像机在各个方位下拍摄的虚拟立体靶标在摄像机坐标系下的位置及姿态参数为优化变量,建立以所有三维靶点位置重投影误差平方和为最小的目标函数,采用非线性优化方法求解摄像机标定参数的最优解。该方法较好地解决了大视场视觉测量中大尺寸靶标加工困难、摄像机标定精度难以保证的问题。仿真和实际标定实验均证明此方法可以有效提高大视场摄像机的标定精度。 相似文献
3.
4.
5.
为了实现室内运动目标位姿的高精度测量,建立了一套激光投影成像式位姿测量系统.该系统利用两两共线且交叉排列在同一平面上的点激光投射器作为合作目标捷联在运动目标上,通过与光斑接收幕墙的配合共同组成运动目标位姿测量基线放大系统,利用高速摄像机实时记录幕墙上投影光斑的位置,利用摄像机标定结果求解投影光斑的世界坐标,利用投影光斑之间构成的单位向量建立运动目标位姿解算模型.最后,根据测量原理推导了图像坐标提取、摄像机外部参数标定、光束直线度与目标位姿解算结果之间的误差传递函数.实验结果表明,当摄像机的视场范围为14 000mm×7 000mm时,测量系统的姿态角测量精度为1′(1δ),位置测量精度为5mm,且误差大小与目标位姿测量误差传递函数理论计算值一致,验证了本文提出的目标位姿测量方法与测量误差传递模型的准确性,能够满足目标位姿测量高精度的要求. 相似文献
6.
针对逆向工程中引导性曲面边界信息的快速获取问题,系统地研究了共轴立体视觉测量方法,建立该方法的数学模型,详细分析了摄像机焦距、基线距等系统结构参数及被测点空间位置对测量精度的影响,通过数学分析确定摄像机基线距的最佳取值范围,研究共轴立体视觉测量系统特殊的极线几何关系.提出基于共轴立体视觉的曲面边界快速测量方法,利用三坐标测量机的精密机械系统及精确的空间定位能力,用单个摄像机以两次共轴定位摄取图像的方式实现共轴立体视觉测量功能,然后利用共轴立体视觉外极线相互平行且通过各自像平面主点的特殊极线几何关系简化同源像点匹配过程,从而快速获取被测曲面的边界信息.实验结果表明:用基于三坐标测量机的单摄像机共轴立体视觉测量方法获取的曲面边界平均误差为0.268 mm,基本满足逆向工程中对引导性曲面边界的测量精度要求. 相似文献
7.
为了克服图像传感器在位姿测量中存在响应速度与精度相互制约以及相应图像处理算法复杂的缺陷,提出一种基于单个位置敏感探测器的目标空间位姿测量方法.首先建立以位置敏感探测器光敏面中心为原点的传感器坐标系并在该坐标系下定义空间姿态角,然后将合作目标上8个循环交替点亮的红外LED光源作为探测对象,特征发光点经过会聚镜头成像于探测器光敏面上,经信号处理得到各点二维像坐标,并结合光源相对位置关系最终解算得到目标在传感器坐标系下的空间位置和姿态.在对系统稳定性进行验证后完成了位置平移与角度旋转的测量实验.实验结果表明:提出的方法在视场角为16.3°的范围内探测距离可达10m,沿深度方向的位置测量绝对误差最大为36.2mm,其他方向位置测量平均绝对误差最大为7.1mm,角度测量绝对误差优于2°.该方法解算过程简单、实时性强,测量更新频率为100Hz,可以满足位姿检测的高速要求. 相似文献
8.
提出一种基于高速相机双目立体视觉技术的大视场全场三维位移测量方法,用来测量地震振动台实验过程中的位移变化。给出了一种鲁棒的标志点匹配算法,基于VS2010开发环境,研发了用于振动台实验三维全场位移测量系统,设计了精度评估实验方案,验证该方法在大幅面位移测量中的精度,并利用该实验系统对高边坡模型振动台实验进行测量。结果表明:在3 m1.5 m视场范围,静态位移测量误差优于0.4 mm,动态位移测量误差优于0.5 mm,可以满足振动台实验的要求;该方法可以方便、直观地测量地震振动台实验中高边坡模型的位移场,并且测量得到X、Y、Z 3个方向位移曲线以及总位移曲线过渡自然、数据合理,是测量振动台实验全场位移变化的一种有效方法。 相似文献
9.
提出一种将EPnP算法和SoftPOSIT算法融合的单目视觉姿态自动测量方法.首先,利用EPnP算法计算得到立体靶标的位姿参数,并将该位姿参数作为SoftPOSIT算法的迭代初始值带入.其次,将SoftPOSIT算法计算位姿的的迭代过程与立体靶标结合,实现姿态的自动测量,并仿真验证了拓扑确定位姿的有效性.最后,为了验证姿态测量结果的精度,以高精度二维转台为基准,将立体靶标安装在二维转台中,通过控制转台转动角度得到靶标姿态的测量数据.实验结果表明,当转台转动角度在[-20°,20°]时,靶标姿态角α的测量结果标准差为0.20°,姿态角β的测量结果标准差为0.27°. 相似文献
10.
移动视觉测量中大量非编码点粘贴在被测物表面。由于图像点在不同站位图像中形状相似,因此无法提供足够多的信息来对其进行分类识别,匹配不同图像间的非编码点是移动视觉测量中的一项重要任务。大量研究证明,极线匹配方法是实现图像点匹配的有效方法。然而移动视觉测量的相机是未经过标定的,在利用极线匹配方法时,图像畸变会使基本矩阵求解精度较低,从而导致大量误匹配情况出现。为了解决该问题,提出一种基于空间交会的非编码点匹配方法。该方法通过不同图像间编码点的自动匹配,结合平差优化算法初步获取各站位的内外参数。然后利用这些参数将二维图像点重投影成对应的三维空间直线,在空间中利用直线间的交会关系确定图像匹配点。大量实验证明,该方法可以比极线匹配方法寻找更多的匹配点,更适合用于移动视觉测量。 相似文献
11.
12.
13.
14.
昆虫(螳螂)复眼利用目标的动态差异实现立体视觉,具有视场大、计算简单、实时性高等特点,是立体视觉研究的新方向。为实现复眼立体视觉在机器人视觉导航中的应用,根据复眼结构以及信息处理机制,提出并研究了环形光电传感器的目标快速检测与定位方法。首先,搭建了基于60个光电二极管的等6°夹角分布式环形传感器,形成具有360°视场的环形仿生复眼;其次,建立了基于光流原理的运动目标方位角检测模型,采用傅里叶拟合法实现了方位角检测模型的优化,实现了运动目标方位角与目标距离大视野范围内的简单、快速检测。实验结果表明:1)可实现距离375 mm范围内运动速度为30 mm/s的目标方位角实时检测,测量误差在2°范围内;2)基于目标方位角检测模型,可实现双目阵列传感器在300 mm×375 mm视野重叠区域范围内、平均测量误差在10 mm范围内的立体视觉测距。基于光流的运动目标方位角检测模型可用于实现对运动目标空间位置的动态实时检测,在运动检测、视觉导航等领域具有广泛的应用前景。 相似文献
15.
16.
在传统双目立体视觉传感器的基础上,对基于平面镜成像的单摄像机立体视觉传感器进行了研究。在电荷耦合器件(CCD)摄像机前放置一平面反射镜,通过对目标物体和其虚像进行拍摄,得到一幅具有视差的图像,该图像相当于摄像机和其在平面镜中的虚拟摄像机从不同角度对目标物体进行拍摄,具有双目立体视觉的功能。建立了单摄像机立体视觉传感器数学模型,分析了参数对单摄像机立体视觉传感器的视场范围和测量精度的影响,设计了传感器参数尺寸,进行了相关实验验证。实验结果表明,该测量方案方便有效,结构简单,调节方便,尤其适合近距离高精度测量。 相似文献
17.
18.
基于光学参考棒的立体视觉测量系统现场标定技术 总被引:9,自引:5,他引:4
为实现大空间复杂工件的准确测量,精确标定立体视觉系统变得越来越重要。为了克服传统立体摄像机标定过程繁复、户外实现困难的弱点,提出了一种基于光学参考棒的灵活、有效的立体视觉测量系统标定技术。参考棒水平和深度方向各有三个距离已知的红外LED作为特征点。通过在测量范围内的不同位置和方位移动光学参考棒,两像机同时捕获参考棒上特征点的图像。基于匹配的特征像点以及对极线约束,利用线性算法和Levenberg-Marquardt(LM)迭代算法快速地标定立体视觉测量系统。两像机之间平移量的比例因子由参考棒上特征点间的已知距离确定。参量标定过程中,自动地控制光强,优化曝光时间,使不同位置处光点图像的强度均一致,可以获得高的信噪比,提高标定精度。实验结果表明,该方法灵活、有效,在线标定能达到很高的精度,将现场标定过程应用到实际的大空间三维测量系统中,测量最大误差为0.18 mm。 相似文献
19.
针对用非平行双目视觉系统进行水下拍摄测量时,由于折射所导致的测量误差较大、精度不高的问题,建立了基于折射光路的水下双目视觉系统测量模型,并以Agrawal方法为基础,在已知两摄像机相对位置关系的前提下,对该测量模型参数标定的方法进行了改进。为验证改进的Agrawal方法的可靠性,与Agrawal方法进行水下标定对比实验。结果表明,相较于Agrawal标定算法得到的防水罩法向量这一模型参数,提出的改进算法的结果与真实值更为接近。在此基础上,应用标定后的水下双目视觉系统测量模型对水下靶标标定点间的标准距离进行测量,测量误差平均值为-0.0134 mm,最大误差为0.2073 mm,与空气中双目视觉系统测量精度相当。 相似文献