首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到17条相似文献,搜索用时 125 毫秒
1.
基于神经网络的视觉系统标定方法   总被引:3,自引:1,他引:2  
为了解决摄像机标定存在的若干问题 ,根据立体视觉原理 ,提出了基于神经网络的双目视觉系统标定方法。通过对双目摄像机的有效视场分析 ,确定了一次测量面积 ,并把像对视差作为网络输入 ,建立空间点世界坐标与图像坐标非线性映射关系 ,使系统不经过复杂的摄像机内外参数标定 ,就能直接提取物体的三维信息 ,增加了系统的灵活性。实验证明 ,该方法有效可行  相似文献   

2.
双目视觉作为一种非接触三维(3D)测量技术,其位姿标定结果的好坏将直接影响3D物体测量的精度。基于迭代最近点(ICP)算法获得两组点集之间平移和旋转参数的原理,提出了一种在传统双目位姿标定结果的基础上补偿双目标定矩阵改善精度的方法。介绍了摄像机模型、双目视觉测量模型和ICP算法的基本思想。用双目摄像机标定的外参数和相同的靶标坐标系获得双目视觉位姿矩阵,在此提出基于ICP算法获得两组点集的旋转平移矩阵补偿双目位姿矩阵的方法,以及相应的靶标角点坐标投影误差分析模型。双目摄像机采集9组5×7个角点的靶标标定图像,应用ICP算法补偿双目位姿矩阵,并采用误差模型对9组标定结果进行了分析,双目结构光标定改进实验结果表明,应用ICP算法补偿双目标定模型能显著地提高双目标定的精度。  相似文献   

3.
移动特征靶标的摄像机径向畸变标定   总被引:3,自引:1,他引:2  
王会峰  王炳健 《光学学报》2012,32(5):512007-116
针对成像测量系统中镜头径向畸变影响测量精度的问题,提出了一种基于物面移动同心圆特征靶标的径向畸变标定方法。该方法先将固定在二维精密平台上的同心圆靶标置于垂直物面的特定位置,然后采集靶标图像,同时用最小二乘法以拟合得到的圆直径为条件,按一定方式移动特征靶标,直到拟合值达到极值或者在一定误差范围内。记录该幅图像,则其拟合得到的圆心坐标便是畸变中心,同时利用该幅图像,根据等差值半径和摄像机成像模型的半径的成像关系求出其畸变多项式系数。为提高特征靶标的移动效率,提出了坐标轮换最优化移动的方案。实验结果表明,该方法对畸变中心的标定精度可达0.6pixel,畸变多项式系数有效数字重复误差小于0.02,并可实现两者的一靶标定,且利用该法获得的参数能实现对畸变图像的准确校正。  相似文献   

4.
一种高精度线结构光视觉传感器现场标定方法   总被引:13,自引:1,他引:12  
针对现有线结构光视觉传感器标定方法存在的局限性,提出一种不需要求解光平面标定点的标定方法.根据光条图像求解平面靶标上光条在摄像机坐标系下的Plücker矩阵.在视觉传感器前合适位置将平面靶标摆放多次,联立所有光条空间直线的Plücker矩阵,求解光平面在摄像机坐标系的平面方程.最后通过非线性优化方法得到光平面方程在最大似然准则下的最优解.在标定过程中,所有光条点都参与光平面参数的计算过程,因此该方法标定结果精度高、稳健性强.实验证明,与现有方法相比该方法标定精度提高30%左右.  相似文献   

5.
面向大视场视觉测量的摄像机标定技术   总被引:7,自引:0,他引:7  
杨博文  张丽艳  叶南  冯新星  李铁林 《光学学报》2012,32(9):915001-174
提出了一种面向大视场高精度视觉测量的摄像机标定新方法,该方法采用亮度自适应的单个红外发光二极管(IR-LED)作为目标靶点,将该靶点固定在三坐标测量机的测头上,并依次精确移动至预先设定的空间位置,每次靶点到达设定的空间位置时,摄像机对靶点进行图像采集。利用三坐标测量机的精确位移,在三维空间构成一个虚拟立体靶标。针对虚拟立体靶标在大视场摄像机标定中只能覆盖一小部分标定空间的问题,通过自由移动摄像机在多个方位对虚拟立体靶标进行拍摄,使得多个虚拟立体靶标分布于整个标定空间。摄像机在每个方位对虚拟立体靶标的拍摄都标定出一组摄像机的内、外参数,然后以摄像机内参数和摄像机在各个方位下拍摄的虚拟立体靶标在摄像机坐标系下的位置及姿态参数为优化变量,建立以所有三维靶点位置重投影误差平方和为最小的目标函数,采用非线性优化方法求解摄像机标定参数的最优解。该方法较好地解决了大视场视觉测量中大尺寸靶标加工困难、摄像机标定精度难以保证的问题。仿真和实际标定实验均证明此方法可以有效提高大视场摄像机的标定精度。  相似文献   

6.
在研究传统摄像机标定原理及方法的基础上,提出了一种新的基于同心圆环点模板的双目摄像机标定方法。该方法仅要求摄像机摄取任一方位包含所有25个同心圆环点的所设计模板的一幅图像,即可根据射影几何内秉的约束条件和左右图像的视差完成对双目摄像机焦距、基线距离和光心位置等参数的标定,且不需要进行图像的畸变校正与匹配。实验表明,该双目摄像机的标定方法具有较高的精度和效率,可以方便、迅速地实现双目摄像机的标定。  相似文献   

7.
为了提高大视场、远距离的双目摄像机标定精度,提出一种基于位姿约束的摄像机标定算法。该方法利用双目摄像机之间的三维位姿关系是刚体变换这一属性,标定出左、右摄像机相对位姿的外部参数。利用相对位姿为约束条件求取摄像机的初始内部参数,剔除较大的重投影误差值对应的标定图像组,重复迭代直至重投影误差平均值小于指定值,得到多个待优化的摄像机内部参数。再将最后标定图像组的角点坐标、待优化的摄像机内部参数和相应的外部参数,建立一个以角点三维重构坐标值与实际设定角点三维坐标值的模均值为最小的目标函数,求解出双目摄像机标定参数的最优解。该方法很好地解决了误差大的标定图像造成的影响,且充分利用了双目摄像机之间的位姿约束关系。通过仿真和标定实验可以看出,本文方法可以实现大视场双目摄像机的高精度标定。  相似文献   

8.
针对用非平行双目视觉系统进行水下拍摄测量时,由于折射所导致的测量误差较大、精度不高的问题,建立了基于折射光路的水下双目视觉系统测量模型,并以Agrawal方法为基础,在已知两摄像机相对位置关系的前提下,对该测量模型参数标定的方法进行了改进。为验证改进的Agrawal方法的可靠性,与Agrawal方法进行水下标定对比实验。结果表明,相较于Agrawal标定算法得到的防水罩法向量这一模型参数,提出的改进算法的结果与真实值更为接近。在此基础上,应用标定后的水下双目视觉系统测量模型对水下靶标标定点间的标准距离进行测量,测量误差平均值为-0.0134 mm,最大误差为0.2073 mm,与空气中双目视觉系统测量精度相当。  相似文献   

9.
提出了一种基于方向性靶标和多约束优化的双目相机标定方法。新型方向性平面靶标能够判断靶标的旋转方向,并对每个标定角点进行编码,以保证双目相机在拍摄到局部靶标的情况下依然能够完成同名点匹配,进而完成双目相机标定。根据方向性靶标建立双目相机标定模型,引入用于描述平面靶标姿态的天顶角和方位角,通过天顶角和方位角筛选出在不同位置上的靶标姿态均具有明显差异的图像作为标定图像,这提高了双目标定结果的稳定性;结合靶标的三维几何信息,建立了多维度约束的双目参数优化模型,提高了双目标定结果的精度。实验结果表明,与传统的张氏标定方法相比,所提出的标定方法能够有效提高所获得的标定结果的稳定性和精度;通过对标准量块进行多次测量,进一步验证了所提方法的有效性。  相似文献   

10.
多自由度双目立体视觉系统可以解决传统双目立体视觉视场区域小的问题。避免双目摄像机每转动一个角度都需要重新标定外参数,提出了一种基于转轴参数的标定方法。只需标定出初始位置时双目摄像机的内外参数,使摄像机绕转轴旋转,根据单应性原理测量摄像机与标定模板的位姿关系,确定转轴方向矢量与轴上点坐标。最终利用Rodrigues旋转矩阵确定旋转已知角度后双目摄像机的外参数,实现多自由度双目系统的标定。实验结果表明,提出的方法能准确测量转轴参数,完成多自由度双目立体视觉系统的快速标定,提高系统的工作效率。  相似文献   

11.
双目视觉用于鱼苗尺寸测量   总被引:1,自引:0,他引:1  
为了有效地提高鱼苗尺寸测量的效率及精度,搭建了平行式双目立体视觉系统。根据双目视觉原理,首先基于改进后的由多组同心圆构成的标定板对双目视觉测量系统进行定标;然后利用Harris角点提取算法获取鱼苗图像的关键特征点,并基于归一化互相关(Normalized Cross Correlation,NCC)立体匹配算法对关键特征点进行匹配,提取坐标数据;最后根据坐标数据进行计算,得到鱼苗的空间坐标,实现对鱼苗尺寸的精确测量。结果表明,由所搭建的平行式双目立体视觉系统测量的相对误差在8%以内,为双目视觉应用于鱼类养殖业的可行性提供了依据。  相似文献   

12.
A new method to calibrate a trinocular vision sensor is proposed and two main tasks are finished in this paper, i.e. to determine the transformation matrix between each two cameras and the trifocal tensor of the trinocular vision sensor. A flexible sphere target with several spherical circles is designed. As the isotropy of a sphere, trifocal tensor of the three cameras can be determined exactly from the feature on the sphere target. Then the fundamental matrix between each two cameras can be obtained. Easily, compatible rotation matrix and translation matrix can be deduced base on the singular value decomposition of the fundamental matrix. In our proposed calibration method, image points are not requested one-to-one correspondence. When image points locates in the same feature are obtained, the transformation matrix between each two cameras with the trifocal tensor of trinocular vision sensor can be determined. Experiment results show that the proposed calibration method can obtain precise results, including measurement and matching results. The root mean square error of distance is 0.026 mm with regard to the view field of about 200×200 mm and the feature matching of three images is strict. As a sphere projection is not concerned with its orientation, the calibration method is robust and with an easy operation. Moreover, our calibration method also provides a new approach to obtain the trifocal tensor.  相似文献   

13.
单摄像机虚拟立体视觉测量技术研究   总被引:6,自引:0,他引:6  
以双目立体视觉传感器三维测量模型为基础,提出了一种用于测量空间三维点坐标的低成本单摄像机模型。该模型利用光学成像,把单摄像机镜像为一对虚拟摄像机,在一个CCD像面上采集到同一物体存在视差的两幅图像,从而恢复空间点的三维信息。讨论了单摄像机传感器测量空间三维点坐标的基本原理,建立了单摄像机传感器的测量模型,克服了双摄像机系统中成本高、切换采集左右摄像机的图像使检测速度减慢等诸多缺陷,为空间三维点的精密测量提供了经济、快速、有效的测量途径。实验表明.传感器可实现约0.8%的相对测量精度.证明了本方案合理、有效。  相似文献   

14.
Large FOV (field of view) stereo vision sensor is of great importance in the measurement of large free-form surface. Before using it, the intrinsic and structure parameters of cameras should be calibrated. Traditional methods are mainly based on planar or 3D targets, which are usually expensive and difficult to manufacture especially for large dimension ones. Compared to that the method proposed in this paper is based on 1D (one dimensional) targets, which are easy to operate and with high efficiency. First two 1D targets with multiple feature points are placed randomly, and the cameras acquire multiple images of the targets from different angles of view. With the fixed angle between vectors defined by the two 1D targets we can establish the objective function with intrinsic parameters, which can be later solved by the optimization method. Then the stereo vision sensor with two calibrated cameras is set up, which acquire multiple images of another 1D target with two feature points in unrestrained motion. The initial values of the structure parameters are estimated by the linear method for the known distance between two feature points on the 1D target, while the optimal ones and intrinsic parameters of the stereo vision sensor are estimated with non-linear optimization method by establishing the minimizing function involving all the parameters. The experimental results show that the measurement precision of the stereo vision sensor is 0.046 mm with the working distance of about 3500 mm and the measurement scale of about 4000 mm×3000 mm. The method in this paper is proved suitable for calibration of stereo vision sensor of large-scale measurement field for its easy operation and high efficiency.  相似文献   

15.
基于光学测棒的立体视觉坐标测量系统的研究   总被引:7,自引:2,他引:5  
徐巧玉  车仁生 《光学学报》2008,28(11):2181-2186
提出了一种基丁测量与校准功能合一的光学测棒的立体视觉坐标测最系统.采用光学测棒作为成像目标,通过任意放置的两台摄像机获取测棒上的发光特征点的图像实现被测物体三维坐标的测量,同时利用测量数据定期对两台摄像机外部方位参数进行校准.深入研究了两台摄像机内部参数和外部方位参数校准过程中的校准件和校准算法的设计,以及系统测量建模等关键技术,提出了相应的解决方案,减小了摄像机内外参数校准及测量模型对测量结果的影响,提高系统的测量精度.实验结果表明.该系统的最大测量误差为0.11 mm.  相似文献   

16.
目前机器视觉技术广泛应用于弹着点坐标的测量领域,针对双目视觉技术标定、演算复杂的问题,提出一种基于单目视觉技术的弹着点测量方法。通过图像处理技术定位出靶面4个角点以及弹着点像素坐标,采用矩形P4P方法解算出靶面坐标相对于相机坐标系的位姿,根据单目视觉成像原理计算出弹着点在靶面的实际坐标。根据该方法成功测量出了实验中靶面弹孔的坐标,最大测量误差为2.3 mm。结果表明,该方法可以快速、精确测量靶面与相机的位姿关系以及弹着点的坐标。  相似文献   

17.
To calibrate a structured light vision sensor, it is necessary to obtain at least four non-collinear feature points that fall on the light stripe plane. We propose a novel method to construct non-collinear feature points used for calibrating a structured light vision sensor with a planar calibration object. After the planar calibration object is moved freely in the range of measuring of the structured light vision sensor at least twice, all the local world coordinates of the feature points falling on the light stripe plane can be readily obtained in site. The global world coordinates of the non-collinear feature points in the local world coordinate frame can be computed through the three-dimensional (3D) camera coordinate frame. A planar calibration object is designed according to the proposed approach to provide accurate feature points. The experiments conducted on a real structured light vision sensor that consists of a camera and a single-light-stripe-plane laser projector reveal that the proposed approach has high accuracy and is practical in the vision inspection applications. The proposed approach greatly reduces the cost of the calibration equipment and simplifies the calibrating procedure. It advances structured light vision inspection one step from laboratory environments to real world use.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号