首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 31 毫秒
1.
针对传统视觉同步定位与地图构建(SLAM)算法不能有效处理复杂环境中的动态及潜在动态目标而影响定位与建图性能的问题,提出一种基于Mask R-CNN神经网络以及ORB-SLAM3算法改进的视觉SLAM方法。针对动态目标,提出一种基于语义信息的运动一致性检验算法,使用自适应阈值的极线约束方法实现图像中动态特征点的精确剔除;针对潜在动态目标,提出一种改进的长期数据关联方法,通过增大关键帧选取密度及优化关键帧中的潜在动态目标信息,对算法的回环优化和地图融合过程进行改进,提高回环优化效果与地图复用性。在TUM数据集和真实场景中进行验证,实验结果表明与ORB-SLAM3算法相比,采用TUM数据集在低动态场景和高动态场景中的绝对轨迹均方根误差分别减小8.5%和65.6%;在真实场景下测试,所提算法的定位精度提高了62.5%。  相似文献   

2.
针对传统因子图优化方法(FGO)中量测协方差矩阵不准确带来状态估计精度下降问题,提出了一种基于滑动窗的自适应因子图优化方法(SWAFGO),将滑动窗技术应用到量测协方差矩阵的估计,利用滑动窗内的残差序列估计协方差矩阵。与传统的使用单点残差的自适应因子图方法(SRAFGO)相比,所提出方法不需要误差模型的先验知识,而且充分利用了历史残差数据,因此性能上有较大的提升。仿真实验和KITTI数据实验结果表明,在无先验知识条件下,所提出方法能够较准确地估计出量测协方差矩阵,且相较于SRAFGO方法位置估计精度提升12%。  相似文献   

3.
针对室内动态场景下的视觉同步定位与地图构建(VSLAM)问题,提出了一种基于YOLACT实例分割融合光流约束的视觉同步定位与地图构建方法,以降低运动物体对VSLAM系统性能影响。该系统通过自适应阈值的方法提取到均匀分布的ORB特征点,然后利用YOLACT实例分割网络获取动态对象的掩膜,同时使用改进的光流约束对动态点进行检测。将动态点与动态对象掩膜进行匹配之后可以删除动态物体的特征点,之后使用剩余的静态特征点完成相机的位姿估计。最后使用静态区域的图像信息生成点云图,并通过滤波器对点云图进一步优化,同时引用八叉树存储点云,建立八叉树地图。在TUM数据集室内动态场景和真实室内动态场景下进行测试,相较于ORB-SLAM3算法,所提VSLAM算法在低动态场景中的定位精度有10%以上的提升,在高动态场景中对比DS-SLAM算法,也有5%左右的定位精度提升,验证了所提方法在室内动态场景下的可行性和有效性。  相似文献   

4.
针对机器人导航中动态环境下的同时定位和建图问题,提出了一种可在动态场景下稳定实时运行的RGB-D SLAM方法。通过从静态背景中分割并剔除动态对象,并在系统RANSAC解算过程中提取静态背景中的特征点来估计相机轨迹,使得系统在动态场景下能稳健定位;对当前帧构建Delaunay三角网格,并判断当前帧与参考帧的匹配点对的距离一致性,通过删除动静状态不一致的点对线段来剔除网格中的动态物体;结合带加权的词典方法,通过减小动态物体在动态场景的权重,进一步提高系统精度。实验结果表明,所提出的方法在TUM数据集的高动态序列中准确度相比现有实时SLAM方法提高了81.37%,显著提高了移动机器人在动态场景下的定位精度。  相似文献   

5.
在GNSS信号拒止的室内环境定位中,针对视觉惯性里程计(VIO)在长期运动或无回环等不利环境下产生误差累积偏移以及超宽带(UWB)受非视距影响定位精度难以保证的问题,提出了一种基于抗差估计的UWB辅助视觉惯性自适应组合定位算法。首先,构建UWB与VIO的优化框架,利用UWB定位结果对VIO进行全局约束。其次,在后端优化阶段加入抗差估计,实时调整传感器间的权重值,抑制UWB非视距的影响。最后,在EuRoc数据集和真实场景中进行了实验验证。真实场景实验结果表明,组合算法在非遮挡条件下定位精度相比于VINS_Mono提高75.05%,基于抗差估计的组合算法在遮挡条件下定位精度相比于不加抗差估计的组合算法提高37.53%。  相似文献   

6.
基于图优化的即时定位与同步构图(SLAM)方法是在视觉里程计运动估计的基础上通过增加一个回环检测,从而对非线性多约束进行优化来提高定位精度。在视觉运动估计中,针对视觉特征点匹配错误率高的问题,提出了一种ORB特征点聚类抽样匹配跟踪的方法。在位姿图优化上,提出了一种改进型的回环检测方法,减少了两种错误匹配的可能性。最后将视觉SLAM与惯性导航进行组合,提高了系统的稳定性和定位精度。使用公开的室内SLAM测试数据集进行仿真,结果表明,该方法的定位均方根误差在厘米级,生成的点云地图清晰可见。  相似文献   

7.
以三维激光雷达为主的多源融合同步定位与建图技术是无人系统室内外无缝定位的研究热点,点云配准是其中重要环节。为了提高点云配准效率,提出一种基于体素格尺度不变特征变换的快速点云配准方法。首先,基于点云体素格提取尺度不变特征变换的特征点,完成初始配准;然后利用随机抽样一致算法剔除边缘匹配点并优化初始变换参数;最后基于优化初始变换参数,采用K维树近邻搜索法,结合最近邻点迭代配准算法完成原始点云数据的快速精确配准。对开源数据集以及实际采集的6个典型场景数据的测试表明,该方法的平均配准时间较传统最近邻点迭代配准算法缩短了78%。实验结果表明了该方法的有效性。  相似文献   

8.
针对在卫星信号拒止、视觉系统退化场景中无人机MEMS-IMU零偏无法准确估计并补偿导致导航误差迅速发散的问题,提出一种基于改进长短时记忆(LSTM)网络的零偏在线标定方法。首先,为解决MEMS-IMU零偏数据非线性强、传统循环时间网络训练效果差的问题,设计序列到序列的LSTM神经网络结构,引入教师强迫机制,提高了网络特征学习能力。然后,在导航过程中使用训练后的网络对MEMS-IMU零偏在线标定,补偿后的IMU量测与视觉信息联合优化,保证了导航定位精度。实验结果表明,在纯惯性导航实验中,所提方法的绝对位置误差比传统LSTM方法减小了6.5%;在EUROC数据集下进行的视觉惯性组合导航实验中,所提方法的平均绝对位置误差比传统LSTM方法减小了15%。  相似文献   

9.
针对弱纹理环境下单目视觉SLAM系统只依靠提取点特征鲁棒性较差的问题,提出一种点线特征视觉与惯导融合的机器人SLAM算法。首先,采用自适应加权提取点线特征并使用普吕克坐标法表示线段,减小计算量同时较好克服线特征提取时线段割裂的不足;其次,采用四叉树法实现点线特征提取均匀化解决特征堆积问题,同时消除点线特征误匹配,再利用视觉点线信息与IMU紧耦合优化机制提高机器人SLAM算法精确度。最后,将该算法在EuRoC数据集和弱纹理环境中进行实验,结果表明,改进后线特征提取相较于传统线特征提取鲁棒性提高了12.94%,相较于原生算法ORB-SLAM3,改进后特征匹配时间节约了19.2%,大型弱纹理环境中绝对定位精度提高了55.6%,所提算法在弱纹理环境中定位效果具有较强的鲁棒性和精确性。  相似文献   

10.
当前应用于室内的视觉同时定位和地图构建算法(VSLAM)主要面向静态的环境,算法的定位精度和稳定性会大大受到环境中运动物体的影响。针对这一问题,提出了一种面向室内的动态场景下的VSLAM方法。在ORB-SLAM2架构上进行改进。在相机捕捉图像后,首先利用GCNv2神经网络对图像提取出特征,同时利用轻量级的ESPNetV2神经网络对图像完成语义分割。然后,结合改进的移动一致性检测来确定动态物体,剔除其动态特征获得其静态特征点来完成位姿估计,最终生成含有语义信息的点云地图和八叉树地图。采用TUM数据集验证所提出算法,实验结果表明在高动态场景下绝对轨迹误差的均方根误差平均减少95%,显著提升了在动态场景下的定位精度。  相似文献   

11.
在室外环境下,基于激光雷达传感器的里程计位姿容易产生累计误差,导致点云地图漂移甚至建图失败,严重限制了激光雷达SLAM的应用。针对这一问题,提出了一种面向室外环境的基于快速回环检测的激光雷达SLAM算法。利用扫描上下文(Scan Context)描述子和Kd-tree搜索获取候选的回环帧,有效提升计算的效率,并采用激光雷达虹膜(Lidar Iris)描述子计算回环帧间的相似度得分,通过残差项加权的特征匹配获取回环帧间的位姿变换,有效提升了回环检测的精度和速度。在KITTI数据集上的实验结果表明,与A-LOAM算法相比,所提算法的平均性能提升约50%,回环耗时有效减少,提升了在室外环境下的位姿估计精度和建图准确度。  相似文献   

12.
为提升视觉惯性导航系统在低照度场景下的定位精度,提出一种结合图像增强技术的视觉惯性定位方法。根据不同曝光图像的直方图确定相机响应模型,通过曲线拟合确定模型参数。利用非线性优化得到低照度图像的照明图以及曝光率矩阵,根据相机响应模型对低照度图像进行预处理。使用光流法进行特征追踪,将视觉误差、IMU误差以及先验误差作为约束,构建紧耦合优化模型,从而实现更精确的位姿估计。最后使用车载设备采集的真实数据对所提方法进行了评估,实验结果表明:所提方法能有效提升视觉惯性导航系统在低照度场景下的定位精度,相比于无图像增强的方法,定位精度提高了25.59%;相比于改进前的图像增强方法,定位精度提高了6.38%。  相似文献   

13.
针对视角变化、光照变化、大尺度和动态物体等复杂场景下,移动机器人定位的准确性低、鲁棒性差等问题,提出基于特征编码和动态路由优化的视觉定位方法。首先,引入基于残差网络的特征编码策略,提取图像的几何特征和语义特征,减少图像噪声信息,加快模型的收敛速度;其次,通过熵密度峰值优化网络的动态路由机制,采用向量表示特征之间的空间位置关系,提升图像特征提取和表达能力,优化网络整体性能;最后,融合优化后的特征编码和动态路由网络,将全局特征描述符和特征向量相结合,保留特征间的差异性和关联性,计算图像特征的相似性用于闭环检测。实验结果表明,相比基于VGG、AlexNet、BoVW及GIST的视觉定位方法,所提方法的准确率分别提高了24.54%、23.06%,43.81%和42.69%,实现了复杂场景下移动机器人闭环检测,提高了定位和建图的准确性和鲁棒性。  相似文献   

14.
为解决失效卫星位姿估计中视觉SLAM方法回环检测效果差的问题,结合空间特殊的应用环境,提出一种改进RANSAC校验的空间失效卫星位姿估计回环检测方法。首先利用深度学习提取图像的全局特征和局部特征;然后对全局特征进行快速检索,建立回环候选帧集合;最后,将图像网格化并提取优质特征点作为RANSAC算法的随机抽样点集,采用改进的RANSAC算法对回环候选帧集合进行图像匹配校验,挑选出匹配程度最高的作为回环检测结果。实验表明:在牛津数据集上,所提方法与无校验的方法对比,100%准确率下的最大召回率提升了30.6%,说明改进RANSAC校验在回环检测中的有效性;在失效卫星数据集上,所提方法无需预训练,对光照变化的空间场景具有高适应性,和基于词袋模型(BoW)算法相比,缩减时间24.1%。  相似文献   

15.
针对交通场景中存在的小目标和遮挡目标等弱目标漏检、错检、检测速度慢等问题,提出一种改进Yolov4的车辆弱目标检测算法。首先设计像素重组残差模块(PS-R),通过超分辨率的方式将多个目标的中心点分散到不同网格中,保留更多的遮挡目标;其次设计特征增强注意力模块(FEAB),充分利用高层特征的语义信息和浅层特征的细粒度信息,提升弱目标检测性能;然后根据道路车辆的目标特点,k-means++结合遗传算法对车辆数据集的真实标注框进行聚类,生成更符合车辆目标的先验框;最后使用深度可分离卷积替换网络特征融合模块(PANet)中的常规卷积,提升检测速度。在车辆数据集KITTI和UA-DETRAC上进行实验验证,改进后的Yolov4算法比原始Yolov4算法精度分别提高了1.9%和2.4%,检测速度达到了61.4 fps。  相似文献   

16.
为了解决复杂室内环境中单一定位技术误差较大的问题,提出了一种基于遗传算法优化BP神经网络的多源信息融合室内定位方法。首先利用Wi Fi定位结果约束地磁匹配范围进行组合定位,降低误匹配率;再采用遗传算法寻找网络全局最优解对BP神经网络的初始权值和阈值进行优化,提升网络精度并加快收敛;使用优化后的网络对组合定位结果和推算定位结果向真实位置坐标方向训练融合,得到最优定位结果。数据显示,经遗传算法优化后BP神经网络预测均方误差降低了约75%,融合定位精度较单一定位方式定位精度平均提升约47%。结果表明,所提的方法可有效提升定位精度,具有更优的定位性能。  相似文献   

17.
针对移动机器人同时定位与地图构建(SLAM)中观测噪声随时间变化及粒子滤波(PF)中粒子多样性易丧失问题,提出基于变分贝叶斯优化的近邻采样PF-SLAM算法。采用高斯混合模型对时变的观测噪声建模,使用变分贝叶斯方法,迭代估算出混合模型中的未知参数;同时根据粒子权重将粒子划分为保留粒子和调整粒子,通过两种粒子间的近邻位置分布关系优化调整粒子位置,在处理时变观测噪声同时,解决粒子多样性丧失问题,使得优化的粒子集更好地表示机器人位置概率分布。实验表明,改进算法与传统PF-SLAM算法相比,定位与建图误差降低76%,较期望最大化算法下的定位与建图误差降低了54%,进一步验证了所提算法的可行性与有效性,为移动机器人同时定位与建图提供一定参考。  相似文献   

18.
为了解决全球导航卫星系统(GNSS)拒止条件下车辆定位困难问题,提出了一种基于交互多模型距离平滑的超宽带/惯性测量单元(UWB/IMU)因子图组合导航方法。首先,针对超宽带信号由于反射或折射导致的非视距问题,分别建立视距与非视距情况下超宽带基站与标签间距离的因子图模型,并利用交互式多模型算法进行原始距离的平滑;然后,对惯性导航系统、交互式多模型处理的超宽带距离信息等测量量进行建模,构建基于因子图的信息融合框架,并根据非线性优化理论与增量平滑算法实现变量节点的递推与更新。最后,采用因子图方法对融合数据进行处理,实现车辆多传感器高精度组合导航。实际测试结果表明,相比基于卡尔曼滤波的多传感器融合方法,所提出的基于交互多模型距离平滑的惯性/超宽带的因子图定位方法在非视距情况下位置估计精度(RMS)提高40%以上。  相似文献   

19.
针对无人平台在未知环境中自身定位和对远距离目标测距精度不高的问题,利用单目相机和惯性器件组成视觉/惯性导航定位系统,结合目标检测提出“动态基线+三角测距”方法实现自身定位和对目标测距。首先,建立基于点线融合的视觉/惯性系统模型,提高系统自身定位精度,给出运动前后相对位姿变化;其次,利用目标检测算法对目标进行检测和识别,得到运动前后物体对于图像平面的视差;最后,通过三角测距实现对目标的高精度测距。公共数据集实验测试结果表明,引入线特征的视觉/惯性系统的平均定位均方根误差(RMSE)为0.15 m。无人平台搭载系统对目标进行测距实验表明,系统在100 m以内对目标测距的误差小于测距距离的2%。  相似文献   

20.
针对无人机远距离跑道线检测时有效信息少且定位困难的问题,提出了一种基于并行反向注意网络的跑道线检测方法。并行反向注意网络采用Res2Net作为主干网络,首先采用并行融合编码器将低级特征与高级特征融合从而获取跑道线的初始轮廓图。在此基础上,融合通道特征金字塔和轴向反向注意力机制来增强图像中的全局和局部特征信息的表达能力。基于无人机着陆图像数据集的仿真试验结果表明所提出的算法有效地检测出跑道线,图像语义分割平均交并比达到86.3%,单帧处理时间25 ms,对于远距离小目标检测有明显的优势。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号