首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 10 毫秒
1.
单目视觉里程计/惯性组合导航算法   总被引:1,自引:0,他引:1  
提出一种单目视觉里程计/捷联惯性组合导航定位算法.与视觉里程计估计相机姿态不同,惯导系统连续提供相机拍摄时刻对应的三维姿态,克服了单纯由视觉估计相机姿态精度低造成的长距离导航误差大的问题.通过配准和时间同步,用惯导系统解算的速度和视觉里程计计算的速度之差作为组合导航的观测量,采用Kalman滤波修正组合导航系统的误差,同时估计视觉里程计标度因数误差.分别在室内外不同环境下进行了22 m的推车实验和1412m的跑车实验,定位误差分别为3.2%和4.0%.与Clark采用姿态传感器定期更新相机姿态估计结果的方法相比,单目视觉里程计/惯性组合导航定位精度更高,定位误差随距离增长率低,适合步行机器人或轮式移动机器人在复杂地形环境下车轮严重打滑时的自主定位导航.  相似文献   

2.
针对复杂环境中双目视觉/惯性里程计系统模型不固定和量测噪声易发生变化的问题,提出了基于滤波器估计的紧耦合视觉惯性里程计(VIO)信息融合方法.将交互式多模型(IMM)估计与多状态约束卡尔曼滤波(MSCKF)算法相结合提出一种交互式多模型多状态约束卡尔曼滤波(IMM-MSCKF)算法.该算法以MSCKF为模型匹配子滤波器...  相似文献   

3.
针对无人平台在未知环境中自身定位和对远距离目标测距精度不高的问题,利用单目相机和惯性器件组成视觉/惯性导航定位系统,结合目标检测提出“动态基线+三角测距”方法实现自身定位和对目标测距。首先,建立基于点线融合的视觉/惯性系统模型,提高系统自身定位精度,给出运动前后相对位姿变化;其次,利用目标检测算法对目标进行检测和识别,得到运动前后物体对于图像平面的视差;最后,通过三角测距实现对目标的高精度测距。公共数据集实验测试结果表明,引入线特征的视觉/惯性系统的平均定位均方根误差(RMSE)为0.15 m。无人平台搭载系统对目标进行测距实验表明,系统在100 m以内对目标测距的误差小于测距距离的2%。  相似文献   

4.
为解决传统水下定位传感器在定位方面的不足,提出一种基于目标光源的单目视觉四自由度定位方法,推导了四自由度定位算法原理,提出了深度定位、水平定位和艏向定位方法。设计了作为目标的共线排列定位光源系统。静态和动态试验证明所提出的单目视觉定位方法原理正确,目标光源系统合理可行,可以在深度为4~0.5 m范围内进行稳定的四自由度定位。经过校正,与SBL和测深仪的相对精度达到10 cm以内。实验说明上述方法对AUV执行近距离使命任务具有实际意义。  相似文献   

5.
当前基于视觉二维码的定位定姿方法依赖连续清晰的图像,当图像出现丢失或模糊现象时,性能难以保证。针对这一问题,提出了一种基于视觉二维码/惯性融合的室内高精度定位定姿方法,具有成本低、灵活和便携的特点。所提方法以捷联惯导算法为核心,通过拍摄预先布设且坐标已知的二维码(ArUco码)获得高精度的位置修正信息,并使用扩展卡尔曼滤波进行信息紧耦合。采用反向平滑算法融合二维码观测信息提升定位定姿精度,结合惯性的位姿推算能够有效地应对摄像头短暂遮挡或图像模糊等问题,提升系统的鲁棒性。实验结果表明,视觉观测出现中断时,所提方法也能够连续可靠地实现3.2 cm(RMS)的定位精度,并达到与参考系统的定姿差异优于0.1°(RMS)。  相似文献   

6.
针对目前VINS-Fusion双目视觉及惯性同步定位与建图(SLAM)在后端优化时存在误匹配而导致系统定位精度低、鲁棒性差的问题,提出了一种联合Huber核函数与可切换约束算法改进的双目视觉及惯性SLAM方法。在VINS-Fusion双目视觉与惯性SLAM框架的基础上,利用Huber核函数的权值重新构建并求解状态优化中IMU残差的代价函数,降低优化中过大的误差项;同时使用可切换约束算法控制环路闭合因子实现动态协方差矩阵的缩放,剔除闭环检测的异常值实现准确的后端收敛。利用不同场景的公开数据集EuRoc中进行了对比验证实验,结果表明联合改进方法的和方差降低了2.416 m,系统精度和鲁棒性都有所提高;同时在实际场景中的实验也验证了改进方法的可行性。  相似文献   

7.
随着物联网技术的发展,室内位置服务将在未来生产生活中发挥至关重要的作用,惯性定位系统的累计误差是制约惯性室内定位技术应用的重要因素.为此,提出一种基于历史信息约束的室内行人三维惯性定位误差修正方法.利用惯性信息估计行人运动环境中的可通行区域,使用静态二值贝叶斯滤波器构建三维占用栅格地图;通过基于粒子滤波的FastSLA...  相似文献   

8.
针对传统视觉惯性SLAM初始化阶段收敛速度慢、准确性低以及抗干扰能力较弱,实时优化过程局部轨迹累计误差高、后端优化精度低等问题,提出一种双重初始化和关键帧分级优化的改进视觉惯性SLAM方法.在视觉惯性导航系统(VINS)初始化基础上构建观测样本情形评估函数,评估状态误差信息矩阵,判断初始化算法终止条件,缩短初始化时间,...  相似文献   

9.
为提高视觉惯性导航系统定位精度,解决其航向缺失且无法提供绝对地理位置的问题,提出一种利用GPS生成先验地图来辅助视觉惯性同时定位与地图构建(SLAM)方法。将每一帧图像采集点的GPS地理坐标投影成绝对高斯坐标,与视觉关键帧信息同步,构建先验地图。利用词袋模型进行闭环检测,由视觉重投影误差因子、IMU残差因子、先验图像重投影误差因子共同构建目标优化函数,基于最小二乘法进行位姿估计与优化。通过地面车载和低空机载实验对该方法进行了验证,实验结果表明:相比于无先验地图的定位方法,x、y、z方向的平均定位误差分别降低了68.2%、75.1%、46.4%以上;相比于有先验地图(未融合GPS)的定位方法,x、y、z方向的平均定位误差分别降低34.9%、51.5%、19.4%以上,有效提高了视觉惯性导航系统在大范围环境中的定位精度。  相似文献   

10.
针对传统电磁信标导航定位系统中由惯性元件解算磁传感器姿态误差导致定位性能下降问题,提出了一种不受传感器姿态影响的改进惯性/磁感应定位融合定位方法,避免了姿态误差对定位结果的影响。首先,基于磁信标磁场分布规律与特征矢量构建了与传感器姿态无关的非线性磁感应定位模型;然后,结合惯性元件对载体目标的状态估计提出了改进的惯性/磁感应定位模型,降低了累计误差、提高了定位精度与结果的输出速度;最后,利用无迹卡尔曼滤波(UKF)对融合数据进行处理,实现对动态目标的位置估计。分别通过实验和仿真验证了不受姿态影响的磁感应定位模型以及惯性/磁感应定位方法的有效性。实验结果表明磁感应定位模型能够不受传感器姿态误差的影响实现定位;数值仿真结果表明惯性元件解算姿态辅助磁信标定位方法的最大误差为7.29 m,基于改进的惯性/磁感应融合定位方法最大误差0.77 m。  相似文献   

11.
针对传统视觉惯性算法在动态物场景下特征误匹配造成轨迹精度低的问题,提出一种动态场景下平面约束和双重特征误匹配剔除的改进视觉惯性SLAM算法。首先,采用改进Plane-Recover算法分割动态场景中静态平面区域,构建损失函数优化静态平面区域分割效果。其次,采用双重特征误匹配判断方法,通过平面约束策略得到正确面特征匹配,同时利用RANSAC与三焦张量算法结合的策略,提高点特征匹配准确度。在真实场景下进行验证,实验结果表明所提算法与VINS-mono算法相比轨迹精度平均提高20.82%,验证了所提算法可有效提升动态场景下的轨迹精度。  相似文献   

12.
在GNSS信号拒止的室内环境定位中,针对视觉惯性里程计(VIO)在长期运动或无回环等不利环境下产生误差累积偏移以及超宽带(UWB)受非视距影响定位精度难以保证的问题,提出了一种基于抗差估计的UWB辅助视觉惯性自适应组合定位算法。首先,构建UWB与VIO的优化框架,利用UWB定位结果对VIO进行全局约束。其次,在后端优化阶段加入抗差估计,实时调整传感器间的权重值,抑制UWB非视距的影响。最后,在EuRoc数据集和真实场景中进行了实验验证。真实场景实验结果表明,组合算法在非遮挡条件下定位精度相比于VINS_Mono提高75.05%,基于抗差估计的组合算法在遮挡条件下定位精度相比于不加抗差估计的组合算法提高37.53%。  相似文献   

13.
针对视角变化、光照变化、大尺度和动态物体等复杂场景下,移动机器人定位的准确性低、鲁棒性差等问题,提出基于特征编码和动态路由优化的视觉定位方法。首先,引入基于残差网络的特征编码策略,提取图像的几何特征和语义特征,减少图像噪声信息,加快模型的收敛速度;其次,通过熵密度峰值优化网络的动态路由机制,采用向量表示特征之间的空间位置关系,提升图像特征提取和表达能力,优化网络整体性能;最后,融合优化后的特征编码和动态路由网络,将全局特征描述符和特征向量相结合,保留特征间的差异性和关联性,计算图像特征的相似性用于闭环检测。实验结果表明,相比基于VGG、AlexNet、BoVW及GIST的视觉定位方法,所提方法的准确率分别提高了24.54%、23.06%,43.81%和42.69%,实现了复杂场景下移动机器人闭环检测,提高了定位和建图的准确性和鲁棒性。  相似文献   

14.
在卫星拒止条件下无人机安全、可靠地完成各类作业的基础是获取高精度的定位信息,传统图像匹配方法保障困难、定位精度差且匹配约束多。因此,提出一种基于深度特征正射匹配的视觉定位方法,通过深度学习网络提取正射校正后的无人机航拍图像和商业地图的深度特征,获得匹配关系,进而计算无人机高精度位置信息。根据视觉测量机理模型分析不同因素对视觉定位精度的影响,使用中空航拍图像数据集进行离线实验,实验结果表明:相比传统基于方向梯度直方图(HOG)特征的模板匹配方法,所提方法的定位精度提高了25%,位置均方根误差(RMSE)优于15 m+0.5%H(5000 m以下),具有一定的工程应用价值。  相似文献   

15.
针对视觉惯性导航系统绝对航向信息缺失导致精度下降的问题,提出了一种基于磁航向约束的视觉惯性定位算法。首先,建立了视觉/惯性/地磁导航系统模型,并对惯性数据采用预积分进行处理,降低状态更新时系统计算负担,提高实时性;其次,在视觉惯性数据对齐后,引入地磁观测数据作为约束,获取真实航向信息,完成系统初始化;最后,构建目标函数,通过非线性优化实现视觉、惯性和地磁数据融合。通过搭建车载实验平台,在室外环境下对所提出算法进行了验证,实验结果表明,相比于VINS-mono,引入磁约束后,视觉惯性导航系统的平均定位均方根误差减小了约25%。  相似文献   

16.
本文针对目前偏振视觉定向难以满足三维空间内运动水平姿态变化时的定向需求、动态适应性差以及微惯性系统漂移大的问题,提出了一种基于微惯性/偏振视觉的组合定向方法。首先,为了减少偏振测量噪声,利用标准大气Rayleigh散射模型,给出了一种基于大气偏振视觉图像的太阳矢量优化估计算法;其次推导了基于卡尔曼滤波的微惯性/偏振视觉组合定向算法,该算法利用微惯性信息对偏振视觉定向进行水平角补偿,可以获得三维空间内的运动姿态并且动态性能高;最后进行了飞行仿真与车载实验验证。实验结果表明,融合微惯性信息补偿水平姿态与组合滤波后,车载航向误差不随时间累积且均方根误差仅为0.75°,与偏振视觉定向相比,定向精度提升可达60%以上。同时在不增加偏振图像计算量的基础上,将定向输出频率从1 Hz提高至100 Hz,显著增强了偏振视觉定向的动态适应性,具有较大的应用前景。  相似文献   

17.
针对自主移动机器人在GPS拒止环境下准确实时定位的问题,提出一种单目视觉/惯性组合导航算法。为解决视觉/惯导工作频率不一致问题,利用预积分技术预先处理惯性测量值;引入了一种快速高精度线性初始化方法,分步估计初始系统尺度、重力方向、速度及零偏;结合全局地图三维点约束削弱累积误差,基于是否更新地图点,构建了两种基于非线性优化的单目视觉/惯性紧耦合模型,以保证导航的局部精度及全局一致性。实验结果表明:初始化方法可快速(15 s内)实现高精度状态初始化;与单目视觉导航算法相比,提出的算法不仅可获取绝对尺度信息,且导航精度更高;与传统滑动窗口非线性优化方法相比,提出的算法在窗口优化过程中加入全局地图三维点约束,可有效削弱累积误差,验证了算法的正确性和可行性。  相似文献   

18.
在大型航天结构舱段试验中,通常需要粘贴大量的应变片来获取结构的应变测试数据。为了能够准确定位结构舱段上的应变片位置,本文研究了基于单目视觉测量技术的应变片空间坐标重建方法。该方法采用一台单反相机,从不同视角连续对构件进行拍摄,获得一组包含圆环编码点和应变片的图像序列;通过检测编码点图像坐标,构建相邻帧之间的匹配关系,然后基于相对定位原理估计相机姿态信息;再利用深度学习技术提取图像中的应变片坐标,结合估计的姿态信息对提取的应变片进行立体匹配,并且采用三角测量方法重构应变片空间坐标,从而实现应变片的三维定位。利用所研究的方法,分别对铝质平板和圆筒上粘贴应变片的三维坐标、碳纤维标尺的长度进行了定位。定位结果表明,该方法的重复定位精度优于0.05mm,三维点距离测量精度优于0.1mm。  相似文献   

19.
基于图优化的即时定位与同步构图(SLAM)方法是在视觉里程计运动估计的基础上通过增加一个回环检测,从而对非线性多约束进行优化来提高定位精度。在视觉运动估计中,针对视觉特征点匹配错误率高的问题,提出了一种ORB特征点聚类抽样匹配跟踪的方法。在位姿图优化上,提出了一种改进型的回环检测方法,减少了两种错误匹配的可能性。最后将视觉SLAM与惯性导航进行组合,提高了系统的稳定性和定位精度。使用公开的室内SLAM测试数据集进行仿真,结果表明,该方法的定位均方根误差在厘米级,生成的点云地图清晰可见。  相似文献   

20.
一种基于线特征的RGB-D视觉里程计算法   总被引:1,自引:0,他引:1  
基于特征点的视觉里程计在点特征稀少的环境下难以得到足够的匹配点对,从而导致相机运动估计失败,因而提出采集人造环境中特征明显的边缘作为线特征来提高视觉里程计算法的稳定性.采用深度相机获取的RGB图像进行LSD线特征提取,推断线特征对应的图像位置的深度信息,避免深度缺失,将线段上的2D点反投影为3D点,拟合3D点为三维直线...  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号