首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到17条相似文献,搜索用时 312 毫秒
1.
《光学学报》2021,41(3):72-82
针对大多数测量实施试验中测量条件的局限性,提出一种基于双相机联合无同名点的双目视觉运动参数测量方法,采用该方法计算位姿初值并采用全局正交迭代算法优化初值。该测量方法在实现过程中不需要同名点参与,只需要两台相机的视场内有6个以上的目标合作标志点,就可得到验证器在运动过程中的位置和姿态等参数。对航天器悬停、避障和着陆阶段进行试验,将该测量方法与同一工况试验下基于同名点的双目位姿测量方法、基于正交迭代的单目位姿测量方法获取的结果和全站仪打点获得的默认真值进行对比,得到姿态测量误差小于0.5°,位置测量误差小于0.01 m。  相似文献   

2.
为了准确获取空间目标跟踪、视觉导航等领域中目标的三维姿态,进行了目标三维姿态单目视觉测量方法研究.提取图像目标的典型特征点构造出直角三角形,并通过其边长比例先验信息以及弱透视成像模型推导出目标三维姿态的单目解算算法.与传统测姿方法相比,该算法在相机焦距等内参量未知条件下依然可解算姿态,增大了测姿应用范围;与传统迭代测姿方法相比,避免了循环迭代求解过程,无需设置迭代初值,提高了解算效率.数值仿真试验结果表明目标在离相机1~3km成像时姿态测量误差低于1.5°;实际图像序列测量结果表明目标俯仰角和偏航角测量结果拟合残差小于1°,翻滚角拟合残差小于2°.实验验证了算法的正确性和稳定性,表明该算法在内参量未知条件下能有效测量中远距离成像目标三维姿态.  相似文献   

3.
基于去离群点策略提高目标位姿测量精度   总被引:1,自引:0,他引:1  
针对在单目视觉目标位姿测量过程中,特征点提取出现离群点的情况,提出一种基于去除离群点策略的位姿测量方法(ORPE).建立了以特征点误差极大极小为原则的最优化目标函数,通过确定特征点最大观测误差值边界,判定并去除离群点,由此可消除离群点误差对位姿测量的影响.仿真实验使用ORPE对1 m×1 m × 1 m的立方体目标进行位姿测量,验证了算法的正确性;使用ORPE测量Boeing飞机模型的位姿,平均姿态角误差2.07°,平均位移误差1.6%.通过和最小二乘测姿法(LSPE)结果对比分析可得ORPE法误差小于LSPE法误差.表明ORPE能有效去除离群点,同时提高佗姿测量精度.  相似文献   

4.
陈至坤  徐傲  王福斌  王一 《应用光学》2016,37(5):680-685
为解决实际工程中无法在被测目标表面设置固定特征来配合单目视觉系统实现目标姿态测量的难题,将圆结构光源引入单目视觉系统中。通过建立圆结构光的视觉姿态测量模型,提出了一种基于单目视觉和圆结构光的目标姿态测量方法。利用图像处理获取不同姿态下目标表面的结构光光条图像的数学参数;然后将其输入到姿态测量算法中,得到目标表面结构光光条的法向量;最后利用目标表面的参考点与结构光光条中心之间的距离约束关系确定唯一解。实验结果表明,该方法有效可行,测量误差平均在0.5°以内,更便于机器人抓取等工程领域的应用。  相似文献   

5.
针对大尺度空间姿态测量中因空间阻隔导致目标特征点遮挡的问题,提出了一种基于多传感器组合的姿态测量方法。通过数字水准仪与姿态探针实现被测特征点的单坐标基准测量,由特征点的水平高差和已知几何约束关系解算得到目标初始姿态值。在此基础上标定高精度倾角传感器与被测目标之间的姿态旋转矩阵,基于坐标变换理论可由传感器输出实时解算目标姿态。实验结果表明:在10 m范围内,姿态测量相对精度优于0.0015°,重复性测量误差小于0.0004°,适用于大尺度阻隔空间姿态的精密实时测量。  相似文献   

6.
景江  杨凌辉  林嘉睿  郭寅 《应用光学》2017,38(3):438-444
针对大尺寸物体形貌测量应用,设计一种视觉形貌测量新方法。该方法是将两套没有公共视场的单目视觉传感器组合起来联合交汇,分别用于位姿测量和单目多位置交汇测量。位姿测量通过求解PnP问题为单目多位置交汇测量提供位姿信息。单目多位置交汇测量利用位姿测量提供的辅助信息通过光束平差解算出待测物的形貌。分析了系统原理,给出位姿测量PnP算法实现过程,介绍了非公共视场相机的标定方法原理,分析了单目多位置交汇测量的原理并给出实现方法。最后进行了测量方法的验证实验,实验结果表明,在3 m×3 m的工作范围内系统测量精度为5 mm,证明该方法可以用于大尺寸物体形貌测量,且结构简单轻便,具有很强的灵活性。  相似文献   

7.
非合作目标航天器的位姿测量一直是各类复杂航天任务中所需解决的关键难题之一。传统的姿态测量算法多采用欧拉角以及旋转矩阵的方式描述目标位姿,计算参数较多,算法形式也相对复杂。针对这个问题,通过单目视觉识别出具有矩形结构特征的目标航天器的一个矩形面,然后在马达代数框架下,根据该矩形面两条平行边所在直线方程的差值信息直接计算出目标姿态参数,最终将姿态解算问题简化为一组四元线性方程组的求解。该算法无需知道目标尺寸,计算形式简洁,实时性高,同时也能很好地保证结果的正交性。数值仿真以及地面验证实验结果表明,该算法具有较强的稳定性,测量精度能够满足测控要求,在交会近距离范围内受两航天器间相对距离的影响较小。  相似文献   

8.
为了提高单目视觉实时测量双护盾隧道掘进机前后盾相对位姿的精度,引入高精度倾角传感器与单目视觉构成一种组合测量系统。该系统将两个倾角传感器分别与视觉传感器和特征点系统固定连接,通过倾角传感器提供的多个角度约束,结合单目视觉实现掘进机前盾体相对于后盾体位姿的更高精度测量。仿真实验表明该系统是可行的,并且具有理想的精度。搭建了模拟双护盾隧道掘进机位姿变化的实验平台,利用全站仪进行精度验证。结果表明系统的测量精度优于3mm,相对于单目视觉测量方法来说,测量精度有了显著提升,可以满足隧道施工中双护盾隧道掘进机位姿的精密测量需求。  相似文献   

9.
为了实现室内运动目标位姿的高精度测量,建立了一套激光投影成像式位姿测量系统.该系统利用两两共线且交叉排列在同一平面上的点激光投射器作为合作目标捷联在运动目标上,通过与光斑接收幕墙的配合共同组成运动目标位姿测量基线放大系统,利用高速摄像机实时记录幕墙上投影光斑的位置,利用摄像机标定结果求解投影光斑的世界坐标,利用投影光斑之间构成的单位向量建立运动目标位姿解算模型.最后,根据测量原理推导了图像坐标提取、摄像机外部参数标定、光束直线度与目标位姿解算结果之间的误差传递函数.实验结果表明,当摄像机的视场范围为14 000mm×7 000mm时,测量系统的姿态角测量精度为1′(1δ),位置测量精度为5mm,且误差大小与目标位姿测量误差传递函数理论计算值一致,验证了本文提出的目标位姿测量方法与测量误差传递模型的准确性,能够满足目标位姿测量高精度的要求.  相似文献   

10.
提出一种将EPnP算法和SoftPOSIT算法融合的单目视觉姿态自动测量方法.首先,利用EPnP算法计算得到立体靶标的位姿参数,并将该位姿参数作为SoftPOSIT算法的迭代初始值带入.其次,将SoftPOSIT算法计算位姿的的迭代过程与立体靶标结合,实现姿态的自动测量,并仿真验证了拓扑确定位姿的有效性.最后,为了验证姿态测量结果的精度,以高精度二维转台为基准,将立体靶标安装在二维转台中,通过控制转台转动角度得到靶标姿态的测量数据.实验结果表明,当转台转动角度在[-20°,20°]时,靶标姿态角α的测量结果标准差为0.20°,姿态角β的测量结果标准差为0.27°.  相似文献   

11.
为验证光轴指向误差对光学姿态测量精度的影响程度,并为后续实况类设备实现姿态测量提供理论依据,以中轴线法为依据,对算法步骤进行拆分,并对光轴指向误差的影响进行溯源,得出指向误差影响姿态处理结果可从两个方面进行分析。同时对模型内交会算法的直接影响和模型外动态基准的间接影响进行推导分析,将仿真计算和实测数据进行结合验证,获取了在典型中长远光学姿态测量中指向误差200″对姿态角误差不超过0.1°的结论,为现有姿态测量可靠性分析以及后续靶场设备能力拓展奠定了理论基础。  相似文献   

12.
针对单目视觉位姿测量传统误差分析方法中只考虑单一误差因素,分析结果与工程实际有较大差异的问题,提出一种考虑多误差因素共同作用的误差分析方法。根据单目视觉系统的测量范围和相机参数建立其位姿测量模型;综合考虑相机内参、镜头畸变、图像点、靶标三维点等误差因素,将其同时引入位姿测量模型进行分析;分析抑制不同参数误差及提高相机分辨率等在多误差因素共同作用下对位姿测量结果的影响,找到最有效的精度优化方法。采用小型机械臂手眼定位中的单目视觉位姿测量系统进行实验,结果表明通过抑制相机径向畸变误差和提高相机分辨率,能够有效地提升该系统的位姿测量精度,位姿精度分别提升6.57%、4.21%和5.88%、5.54%。  相似文献   

13.
为了探讨弱透视投影应用于靶场远距离、小视场姿态测量的可行性,以轴对称回转体目标为例,充分利用透视成像信息及弱透视投影原理,逆向推导了单站弱透视投影的姿态测量模型,实际试验结果证明了弱透视投影在靶场姿态测量中的可行性,在文中所述的试验环境下,弱透视投影与透视投影之间误差不超过0.05°;明确了在靶场远距离、小视场姿态测量环境下,弱透视投影误差主要来源于作用距离;推导了算法适用的极限作用距离。以上研究为靶场弱透视投影远距离、小视场姿态测量奠定了一定的理论基础。  相似文献   

14.
目前,靶场姿态测量以多台套交会测量为主,对于单站姿态测量尚没有较好的解决方案。为了解决该问题,以投影轴对称目标为例,提出了一种基于中轴线像长匹配的单站姿态测量方法。将透视投影拓展为2种等效形式,将体现目标姿态状态的中轴线向像面透视投影,可获得中轴线的投影像长或在等效物面的等效物长,根据目标中轴线的先验长度、相机内外参数及成像信息,经像长匹配即可获取目标的偏航角和俯仰角;实际工程试验验证了该算法的可行性,偏航角精度为1.7°,俯仰角精度约1°,满足靶场单站测姿需求;并对姿态测量模型关键因素进行了误差分析。该方法可适用于非投影轴对称目标。  相似文献   

15.
A monocular method to measure the pose of a translation-only one-dimensional (1D) object containing at least two known characteristic points is presented. The position of any other point on the 1D object can be located after the pose measurement. Scene information is not needed to apply the method. If the distance between the characteristic points is unknown, there is a scale factor between the object's real positions and the measurement results. The method can also be used to measure the pose and shape parameters of a parallelogram, prism or cylinder object.  相似文献   

16.
Autonomous rendezvous and docking (ARD) plays a very important role in planned space programs, the success of ARD rests with the estimation accuracy and efficiency of relative pose among various spacecraft in rendezvous and docking. In this paper, a high accuracy and efficiency estimation algorithm of relative pose of cooperative space targets is presented based on monocular vision imaging, in which a modified gravity model approach and multiple targets tracking methods are employed to improve the accuracy of feature extraction and enhance the estimation efficiency, meanwhile the Levenberg–Marquardt method (LMM) is used to achieve a well global convergence. Moreover an experimental platform with DSP and FPGA is designed and implemented. The comprehensive experimental results demonstrate its outstanding accuracy and efficiency, the update rate achieves 16 Hz and the estimated error of depth does not exceed 2% with noise influence.  相似文献   

17.
张颂  谢永杰  张华良  赵岩 《应用光学》2015,36(3):420-423
提出了一种基于灭点理论的目标姿态角单站测量方法,利用单台光测设备的参数信息和目标在图像上的灭点位置计算目标特征直线的方向,从而获得目标的姿态信息。同时给出了灭点精度评价指标,可作为姿态测量精度的评价标准和加权融合时的权重因子。通过模拟实验和实物实验验证了方法的可行性和准确性。该方法与中轴线法测量偏差均值为0.2,表明所给出的方法对类柱状目标的姿态测量具有精度高、易于实现的特点。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号