首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 921 毫秒
1.
基于结构光视觉引导的工业机器人定位系统   总被引:1,自引:0,他引:1  
为实现工业机器人对目标对象的三维定位,提出了一种线结构光视觉引导的新型工业机器人定位系统。以工业相机、激光器和振镜组成的线结构光自扫描测量装置作为视觉传感器,借助振镜转动实现激光平面对目标对象的扫描,获取目标对象在相机坐标系下的三维位姿。为了将目标对象的三维位姿从相机坐标系转换至机器人工具坐标系,提出了机器人手眼关系与工具坐标系联合标定的方法,最终实现了工业机器人对随机位姿目标对象的三维定位。实验结果表明,系统具有较高的定位精度,其灵活性和稳定性满足工业现场的应用要求。  相似文献   

2.
针对空间非合作目标近距离交会对接时较难获取精确位姿的问题,提出一种高效可靠的基于TOF(time-of-flight)相机的空间非合作目标位姿测量方法.利用TOF相机灰度图可存储光强的特点,用回光反射材质圆点标定板,提高了相机标定精度;基于边缘弧段组合的椭圆检测法计算目标表面对接环内外侧椭圆参数;基于局部阈值的区域生长法对深度图像进行连通域分析,通过面积、长宽比等约束提取出目标表面接插件;利用对接环与接插件建立目标坐标系并解算其在相机坐标系下的三轴位置与姿态角.搭建地面验证系统,通过对比本文方法与ORB(Oriented FAST and Rotated BRIEF)方法4组100帧图像的实验结果,验证了该方法的鲁棒性与测量精度的准确性,说明TOF相机在非合作目标位姿测量领域具有广阔的前景.  相似文献   

3.
为了有效解决单圆特征目标位姿解存在二义性的问题,提出了基于角度约束的目标位姿虚假解的消除方法。在相机标定好的前提下,在水平面上平移相机系统获得两幅或两幅以上具有圆特征的目标物图像,以圆形特征目标物的真实姿态角在相机坐标系下保持不变作为约束,可以有效剔除虚假解。可将该方法应用于末端安装摄像机的工业机器人,操控机器人做已知的平移运动从而有效剔除圆特征目标位姿的虚假解。通过实验验证,圆特征目标姿态角的绝对误差小于0.5°,然后可通过真实姿态选出对应目标的真实位置。该方法简单易行,不需要额外的高昂设备就能精确地定位出物体的真实位姿,成功率可达100%。  相似文献   

4.
由于成像原理限制,深度相机无法获得非朗伯体高反射面和透明物质的真实深度值,造成模型缺失甚至重建失败。针对特殊表面的三维重建问题,提出一种定位特殊表面并优化位姿追踪的方法。通过累计零深度区和时序一致性约束优化对特殊表面进行定位。对深度数据置信度进行评估,并采用空间、时间两个维度上非平均的位姿计算方法来减小透明物质对位姿计算的影响。实验结果表明,在自然场景中,所提方法能够仅通过消费级相机采集的深度数据完成包含特殊表面的三维模型重建与修复,位姿追踪更加准确,模型精度更高。  相似文献   

5.
束安  裴浩东  段慧仙 《光学学报》2021,41(6):157-165
针对在轨服务任务如何在近距离处获取空间非合作目标的相对位置和姿态的难题,提出一种三目立体视觉测量方法.首先利用三台呈等边三角形布置的大视场可见光相机获取图像;然后采用所提方法对特征点进行匹配;接着采用RANSAC方法解算被测目标在世界坐标系下的位姿参数;最后通过对非合作卫星模型的静止、位置移动和姿态转动进行实验.实验结...  相似文献   

6.
基于字典学习的稠密光场重建算法   总被引:1,自引:0,他引:1       下载免费PDF全文
相机阵列是获取空间中目标光场信息的重要手段,采用大规模密集相机阵列获取高角度分辨率光场的方法增加了采样难度和设备成本,同时产生的大量数据的同步和传输需求也限制了光场采样规模.为了实现稀疏光场采样的稠密重建,本文基于稀疏光场数据,分析同一场景多视角图像的空间、角度信息的关联性和冗余性,建立有效的光场字典学习和稀疏编码数学模型,并根据稀疏编码元素间的约束关系,建立虚拟角度图像稀疏编码恢复模型,提出变换域稀疏编码恢复方法,并结合多场景稠密重建实验,验证提出方法的有效性.实验结果表明,本文方法能够对场景中的遮挡、阴影以及复杂的光影变化信息进行高质量恢复,可以用于复杂场景的稀疏光场稠密重建.本研究实现了线性采集稀疏光场的稠密重建,未来将针对非线性采集稀疏光场的稠密重建进行研究,以推进光场成像在实际工程中的应用.  相似文献   

7.
多相机阵列中的相机位姿关系标定是大尺寸测量系统中非常重要的一个环节。建立了标定模型,采用圆点阵列平面靶标,通过线性平移,使靶标分别位于不同相机的视野范围内,获得了同一靶标特征点在不同相机坐标系下的坐标;根据所得坐标,求解靶标坐标系与相机坐标系之间的位姿关系;根据靶标的线性平移约束,进而求解两两相机之间的位姿关系。经实验验证,对于安装距离约为2300mm的相机,标定误差小于0.002mm。其标定过程简单、速度快,可以适用工业大尺寸测量中的现场标定。  相似文献   

8.
针对清理空间非合作目标任务中如何获取目标的相对位置和姿态的难题,提出一种双目视觉位姿测量方法。首先,设计了基于双目视觉的位姿测量算法,利用弧支撑线段的方法快速检测目标表面的对接环,通过极线约束准则和光流法辅助跟踪算法建立复杂场景下的对接环检测和筛选机制;利用两次遍历法快速标记连通区域,加入面积和曲率约束,提取目标表面特征较突出的规则标志点。利用三维重建后的对接环平面和标志点建立目标坐标系,解算与世界坐标系之间的位姿关系。之后将算法移植到DSP6678信息处理平台,实现了对空间非合作目标的实时连续位姿测量。通过3组不同工况下的小卫星模型实验,验证了该方法的有效性。  相似文献   

9.
针对机器人大范围位姿精准测量问题,提出一种大视场位姿测量的变焦测量方法。利用变焦图像匹配点的单应矩阵进行变焦内参动态计算,根据变焦前后靶标位姿求解相机坐标系变换,给出与变焦参数相关的PnP算法,考虑畸变后进行参数优化,并提出缩放和对焦两步变焦控制策略。提出一种基于图像模板的靶标板位姿测量算法,在靶标可视姿态均能稳定检测并区分标志点。对变焦测量系统进行误差测量实验和大场景跟踪实验,结果表明,不同变焦参数下均具有较高的单点测量精度,平均位置精度最高21.8μm,在400~1600 mm范围误差0.09mm,精度较高,使用的变焦相机可实现178.7461~9022.31mm测量。该方法实现了相机活动范围受限而测量范围可拓展的位姿测量。  相似文献   

10.
景江  杨凌辉  林嘉睿  郭寅 《应用光学》2017,38(3):438-444
针对大尺寸物体形貌测量应用,设计一种视觉形貌测量新方法。该方法是将两套没有公共视场的单目视觉传感器组合起来联合交汇,分别用于位姿测量和单目多位置交汇测量。位姿测量通过求解PnP问题为单目多位置交汇测量提供位姿信息。单目多位置交汇测量利用位姿测量提供的辅助信息通过光束平差解算出待测物的形貌。分析了系统原理,给出位姿测量PnP算法实现过程,介绍了非公共视场相机的标定方法原理,分析了单目多位置交汇测量的原理并给出实现方法。最后进行了测量方法的验证实验,实验结果表明,在3 m×3 m的工作范围内系统测量精度为5 mm,证明该方法可以用于大尺寸物体形貌测量,且结构简单轻便,具有很强的灵活性。  相似文献   

11.
针对单目视觉位姿测量传统误差分析方法中只考虑单一误差因素,分析结果与工程实际有较大差异的问题,提出一种考虑多误差因素共同作用的误差分析方法。根据单目视觉系统的测量范围和相机参数建立其位姿测量模型;综合考虑相机内参、镜头畸变、图像点、靶标三维点等误差因素,将其同时引入位姿测量模型进行分析;分析抑制不同参数误差及提高相机分辨率等在多误差因素共同作用下对位姿测量结果的影响,找到最有效的精度优化方法。采用小型机械臂手眼定位中的单目视觉位姿测量系统进行实验,结果表明通过抑制相机径向畸变误差和提高相机分辨率,能够有效地提升该系统的位姿测量精度,位姿精度分别提升6.57%、4.21%和5.88%、5.54%。  相似文献   

12.
为了实现室内运动目标位姿的高精度测量,建立了一套激光投影成像式位姿测量系统.该系统利用两两共线且交叉排列在同一平面上的点激光投射器作为合作目标捷联在运动目标上,通过与光斑接收幕墙的配合共同组成运动目标位姿测量基线放大系统,利用高速摄像机实时记录幕墙上投影光斑的位置,利用摄像机标定结果求解投影光斑的世界坐标,利用投影光斑之间构成的单位向量建立运动目标位姿解算模型.最后,根据测量原理推导了图像坐标提取、摄像机外部参数标定、光束直线度与目标位姿解算结果之间的误差传递函数.实验结果表明,当摄像机的视场范围为14 000mm×7 000mm时,测量系统的姿态角测量精度为1′(1δ),位置测量精度为5mm,且误差大小与目标位姿测量误差传递函数理论计算值一致,验证了本文提出的目标位姿测量方法与测量误差传递模型的准确性,能够满足目标位姿测量高精度的要求.  相似文献   

13.
近年来,EPnP算法作为一种相机位姿估计的解析算法,因其较低的计算复杂度而得到广泛的关注,但该算法对图像噪声的稳健性不强。提出了一种基于EPnP算法的迭代算法,即IEPnP算法。IEPnP算法保留了EPnP算法的主要思想,构造了4个虚拟控制点,利用弱透视投影模型获得相机的初始位姿,计算出虚拟控制点在相机坐标系下的坐标,然后通过高斯-牛顿法对虚拟控制点在相机坐标系下的坐标进行优化求解,最终通过解决绝对定向问题来获得对相机位姿的估计。IEPnP算法简化了EPnP算法的计算过程。在不同的图像噪声水平下进行仿真实验,结果表明,相比于EPnP算法,IEPnP算法不仅保持了较高的计算效率,而且对图像噪声具有更强的稳健性。  相似文献   

14.
基于相位测量偏折术的测量原理,针对移动屏幕偏折术测量方法中的重复标定问题,提出了基于单相机监控的偏折术测量方法。通过辅助相机监控LCD显示屏幕的两个位置,通过PnP方法和坐标系变换确定LCD显示屏幕在主相机中的位姿关系。利用绝对相位追踪对应同一像素的LCD显示屏幕两个位置上的同名相位点,确定入射光线,最终确定法线和梯度信息,并根据径向基函数插值法精确重建镜面面形。采用镜面标定法对具有不同视场的主辅相机进行标定。该方法只需标定一次,不会产生重复标定误差。仿真和实验验证了该方法的可行性,初步实验结果验证该方法具有较高的检测精度。  相似文献   

15.
三维数字图像相关技术在获取工件表面信息方面有重要应用,针对单相机系统在全场测量中的局限性及多相机系统在全场测量中的复杂性,本文提出一种双平面镜辅助的双相机视觉测量方法,并应用在三维重建中。即:分析像素点到三维点的实际映射关系,基于公垂线中点法进行目标点三维重构,确定棋盘格标定板角点的三维坐标;分析角点在镜面的虚实对应关系,标定镜面位置方程,得到反射变换矩阵;通过反射变换矩阵完成物面的虚实转换,最终实现三维全场测量。为验证该方法的可行性和可靠性,分别进行了静态实验和动态实验。结果表明:在游戏币静态实验中,其正反轮廓的三维重建效果良好;在五棱铝柱热变形动态实验中,铝柱外侧表面高度变化均值与Ansys软件的仿真结果基本一致,且优于在镜面上喷涂散斑的重建方法,具有较高的精度。  相似文献   

16.
彭富伦  王静  吴颐雷  郭城 《应用光学》2014,35(4):557-562
车载光电侦察系统在目标定位过程中,由于光电平台、惯导系统的工作方式及安装位置差异,在建立光电平台坐标系、惯导系统坐标系、本地坐标系、地心坐标系、基于参考椭球的经纬度表示等一系列坐标系基础上,推导出目标定位模型,计算出目标的经纬度和高程,实现对目标的精确定位。通过模型对光电侦察系统的主要误差源进行分析和试验仿真,结果表明该模型能够保证对目标定位精度的要求。外场实验结果表明:系统目标定位精度优于15 m。  相似文献   

17.
在相机位姿估计的实际应用中,参考点的坐标数据不可避免地包含了测量误差,其量值大小通常不会完全一致,如果不区别测量误差直接进行相机位姿估计,将可能导致估计结果与真值相差甚远。为此,在广泛应用的正交迭代算法基础上,提出了相机位姿估计的加权正交迭代算法,该方法以加权共线误差为目标函数,根据像面重投影误差确定权重系数取值,优化相机位姿估计结果,具有精度高、稳健性好等优点,且满足全局收敛条件。数值仿真实验与风洞迎角实验的结果表明,本文算法更加有效,能够抑制不同程度测量误差对相机位姿估计结果的影响,所得结果明显优于正交迭代算法,具有较强的工程实用价值。  相似文献   

18.
针对有限或无重叠视场的多目相机系统,提出一种基于ChArUco(chess augmented reality university of cordoba)平板的多相机标定方法.采用ChArUco平板进行相机标定;基于双目重投影误差进行全局优化,为无重叠视场的相机间进行位姿传递提供精度保证;最后通过空间点重建进行性能测...  相似文献   

19.
王君  徐晓凤  董明利  孙鹏  陈敏 《应用光学》2019,40(4):535-541
针对单目机器人在运动过程中,相邻关键帧之间基线过短造成的相机相对位姿无法恢复的问题,提出了一种利用已知特定参照物迭代优化本质矩阵,从而快速分解出机器人相对位姿的方法。该方法首先利用已知特定参照信息获取本质矩阵估计值,然后通过相邻关键帧之间匹配的特征点组和本质矩阵估计值对本质矩阵迭代优化,最后通过本质矩阵的约束关系求得平移向量估计值,利用基于李群的姿态表示得到旋转矩阵估计值,并进一步优化得到唯一解。该方法避免了由于基线过短而无法恢复相机相对位姿的弊端。实验结果表明,该方法可快速解算并优化机器人相对位姿关系,且相对位移估计绝对误差小于0.03 m,优于传统方法。  相似文献   

20.
针对狭长区域模块间存在视野遮挡、对接区域尺寸微小等问题,提出了一种多传感器组合位姿测量方法。该方法采用了布置在模块前后的轮廓仪与激光位移传感器联合获取模块上特征平面点云数据,利用平面拟合与空间几何投影的方法解算出章动角的旋转与位置的平移偏差,结合固定在目标上倾角仪提供的水平角信息解算出进动角与自转角的旋转偏差,研制了自动对接平台样机,实现了对接区域相对位姿的间接测量。实验结果表明,系统的位置与姿态测量精度分别优于40 μm、0.02°,且测量稳定性与效益较人工测量有明显提高,证明了所提方法的有效性,满足对设备模块间的高精度位姿测量需求。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号