共查询到10条相似文献,搜索用时 181 毫秒
1.
近几年图像局部特征检测和描述在机器人视觉中得到了广泛的应用,鲁棒的、快速且高精度的视觉特征检测和描述算法对飞行器进行实时的位姿估计和地图构建具有决定性意义。本文针对四旋翼无人飞行器平台的RGB-D传感器同时定位与地图构建(SLAM),讨论FAST、STAR、SIFT和SURF等检测算法和ORB、FREAK和SURF等匹配描述符的性能,对不同的特征算法进行对比评估出最合适的特征检测方法和匹配描述符。最后,基于Eclipse与OpenCV平台进行了实验,实验结果表明FAST检测和FREAK描述符比其他方法更适用于四旋翼飞行器在板视觉SLAM,且能基本满足实时性。 相似文献
2.
针对传统的SLAM(Simultaneous Localization and Mapping)算法构建地图时容易受环境因素和外界条件的的影响,在非线性系统状态下误差修正能力不足,且当机器人位姿都处于未知状态时,移动机器人位姿获取不精确,地图构建SLAM技术特征量的获取比较繁琐、不准确等问题。以电力巡检机器人为平台,研究了基于全局匹配的扫描算法,摒弃传统的栅格地图模型的插值方法,采用双线性滤波的插值方法,保证子栅格单元的精确性,估算栅格占用函数的概率和导数。最后采用此算法解决了SLAM地图构建的问题,并分别在室内室外环境进行实验。实验结果表明:基于激光测距仪的全局匹配扫描的SALM算法,在室内室外两种不同环境下,不受复杂背景的影响,准确地进行机器人位姿定位,以及环境地图的构建 相似文献
3.
根据传统ICP算法存在的缺点,提出了一种遗传算法结合自适应阈值约束优化的ICP位姿估计方法。采用统计学滤波和区域增长分割算法对原始点云进行预处理,去除离群点并得到各混乱工件的点云集;针对ICP易陷于局部最优的问题,利用遗传优化算法对点云进行粗匹配,得到目标点集相对于参考点云的初始位姿;针对迭代速度较慢的缺点,提出了一种自适应阈值约束法,利用点对距离约束和法向量夹角约束去除局部大变形点,在保证实时性的同时提高了位姿估计的精度。实验表明,该方法能够在84.5ms内定位一个工件,位姿估计误差达0.39mm,满足实时性和抓取精度要求,能够为工业机器人随机箱体抓取提供理论依据与指导。 相似文献
4.
5.
6.
实际场景中运动物体的特征点加入到相机位姿计算中,以及静态环境特征点过度稀疏都会导致移动机器人传统视觉同步定位与地图构建(simultaneous localization and mapping,SLAM)算法在位姿估计时精度低、鲁棒性差。设计了基于分支空洞卷积的双边语义分割算法,将环境区分为潜在运动区域和静态区域;结合几何约束进行静态特征点的二次判断及对没有先验动态标记而具有移动性的特征点的判断,并在事先均匀提取的全部特征点中进行移除,只应用静态特征点求解相机位姿和构建静态环境地图。在TUM公共数据集上进行实验,验证了提出算法在动态环境中SLAM的定位精度明显优于现有其他方法。在存在运动物体的真实环境下进行建图实验,与ORB-SLAM2算法进行对比,本文算法在动态场景中构建的地图更清晰。 相似文献
7.
为了解决光流跟踪法定位精度不足、误差累积和特征点匹配法耗时久的问题,设计了一种将随机抽样一致性(random sample consensus,RANSAC)光流跟踪法和改进的特征点匹配法结合的视觉里程计。利用RANSAC光流跟踪法对关键帧之间的小规模运动进行估计,RANSAC算法对光流跟踪的误匹配点进行剔除,大大降低了光流跟踪法存在的误匹配;而关键帧之间的运动估计则利用改进的特征点匹配法,以修正光流跟踪法的估计误差;最后利用卡尔曼滤波将RANSAC光流跟踪法和改进的特征点匹配法进行融合。实验结果表明:该文的算法能够克服光流跟踪法精度不足、误差累积的问题,将平均相对误差由15.5%提升到了2.6%;同时也能在一定程度上提高特征点匹配法的速度,将特征点匹配法的平均耗费时间由37.28 ms提升到了21.07 ms。 相似文献
8.
9.
在利用即时定位与建图(SLAM)来对周围的环境进行三维建模的应用场景中,提出了一种改进的检测回环的方法。利用深度相机获得的三维点云数据进行正态分布变换(NDT)匹配,得到各个时刻间的初始相对位姿,之后利用随机抽样一致(RANSAC)算法来进一步提高初始匹配的精度。混合回环检测方法是利用空间位置的方法来锁定初始的候选匹配对象,减少全局搜索的耗时;利用基于外观相似性的方法对候选对象进行最后的判别,选择具有强鲁棒性的回环。对公开数据集及室内采集的数据进行实验,并与RGBD-SLAM和RTAB-MAP两种算法进行对比。结果表明,提出的方法原理正确,并在运行一段时间后,可获得比其他两种算法更快的闭环检测速度。 相似文献
10.
《光学学报》2017,(11)
为了提升动态场景中视觉里程计的稳健性和精确度,提出一种基于运动物体检测的立体视觉里程计算法。首先,建立考虑相机位姿的场景流计算模型,用于表示物体的运动矢量。其次,提出构造虚拟地图点的方法,一方面结合场景流进行运动物体检测,另一方面使运动物体在图像中占比较大时仍有足够匹配点对用于位姿估计。最后,通过局部地图点及虚拟地图点与当前帧特征点的匹配结果,构建考虑虚拟点的非线性优化模型进行相机位姿估计,既保证静态地图点不与运动物体的特征点形成错误匹配,又避免因有效匹配点对过少而导致视觉里程计失效。数据集实验和实际场景在线实验结果表明,本文算法提升了视觉里程计在动态场景中的稳健性和精确度。 相似文献