共查询到19条相似文献,搜索用时 171 毫秒
1.
针对全空间仿射不变(ASIFT)算法在解决大视角场景下的图像匹配问题时存在稳健性差、匹配效率低的缺点,提出了一种新的图像匹配算法。采用非线性扩散滤波代替高斯线性滤波对图像进行预处理,以提高检测到的特征点的稳健性;在图像模拟变换过程中采用掩模算子对有效区域进行标记,以提高特征点检测效率。根据视角模拟变换原理,提取特征点不同视角变换下的邻域信息,提出了多视角最近邻匹配与加权匹配规则,建立了多视角描述子,提升了匹配效率。实验结果证明,相比现有的特征匹配算法,所提算法不仅对视角变化具有很好的稳健性,还提高了图像匹配效率与准确度。 相似文献
2.
针对景象匹配辅助惯性组合导航系统需要快速准确获取飞行器位置和航向偏差的要求,提出了一种基于区域协方差的实时图像匹配算法.算法采用区域协方差矩阵的距离作为图像匹配时的相似性度量.首先,对图像进行高斯平滑滤波,提取图像的多种特征计算区域协方差矩阵,利用金字塔多级匹配技术进行全局搜索,获得测试图在参考图中像素级匹配位置.然后,利用全局匹配的结果,在实测图上选取多个局部区域,分别进行局部搜索匹配,获取参考图和实测图中一一对应的局部匹配集.最后,利用RANSAC算法和最小二乘算法计算出两幅图像间的最优相似变换参量.仿真分析表明,该算法能满足景象匹配辅助惯性组合导航系统实时性、精确性和鲁棒性的要求. 相似文献
3.
4.
5.
水下环境中基于曲线约束的SIFT特征匹配算法研究 总被引:1,自引:0,他引:1
针对水下双目图像匹配时不再满足空气中极线约束条件以及尺度不变特征变换(SIFT)特征匹配算法处理水下图像误匹配率较高等问题,提出一种基于曲线约束的水下特征匹配算法。对双目摄像机进行标定获取相关参数,再获取参考图和待匹配图;利用SIFT算法对两幅图像进行匹配,同时利用由参考图提取的特征点推导出其在待匹配图上对应的曲线,将该曲线作为约束条件判定待匹配图上对应特征点是否在曲线上,从而剔除误匹配点,以达到提高精度的目的。实验结果表明,该算法优于SIFT算法,可以有效地剔除误匹配点,比SIFT算法匹配精度提高约12%,解决了SIFT算法在水下双目立体匹配中误匹配率高的问题。 相似文献
6.
7.
8.
遥感图像匹配是图像校正、拼接的基础。由于遥感图像特征相似度大,重叠区域小,遥感图像对匹配算法的要求更高。本文首先从特征检测、特征描述和特征匹配三个方面,比较了SIFT算法和SURF算法在计算速度和准确度方面性能,然后研究了算法对遥感图像重叠度、度量距离的要求,并针对SURF算法对特征方向误差敏感的特点,提出一种oSURF算法;最后利用卫星1A级条带遥感图像分析各个算法优劣性。测试结果表明,相比于SIFT算法,SURF算法计算速度为SIFT的3倍,需要的图像重叠宽度仅为1.25倍描述向量尺寸,而在保证同样匹配率的情况下,SIFT算法则需要图像重叠宽度为1.5倍描述向量尺寸。本文提出的oSURF算法在保证计算速度的同时,准确度相对于SURF算法提升5%~10%,因此,oSURF算法更适合1A级条带遥感图像的拼接。 相似文献
9.
针对图像特征误匹配数量大的问题,提出一种基于稀疏光流法的ORB图像特征点匹配算法。对特征点进行暴力匹配得到初始匹配点集,利用稀疏光流法计算特征点运动向量,估计出特征点在待匹配图像中的二维坐标位置,剔除偏离估计位置较远的特征点匹配对,最后利用随机抽样一致算法进行几何校验进一步优化匹配结果,达到剔除误匹配的效果。实验结果表明:该算法相较于ORB算子、SIFT算子、SURF算子准确率平均提升了21.6%,较RANSAC-ORB算法准确率平均提升了2%,且该算法对图像光照变换、视角变换、模糊变换、旋转和缩放变换和光照变化具有较好的通用性。 相似文献
10.
基于改进梯度和自适应窗口的立体匹配算法 总被引:3,自引:0,他引:3
立体匹配技术是计算机视觉领域的研究热点,由于问题本身的病态性,一直没有得到很好地解决。针对现有局部立体匹配算法精度不高以及易受光照失真影响的问题,提出了一种基于改进梯度匹配代价和自适应窗口的匹配算法。在传统梯度向量仅包含幅度信息的基础上,引入相位信息,并对原始匹配代价进行变换,进一步消除异常值;利用图像结构和色彩信息构建自适应窗口进行代价聚合;提出了一种局部视差直方图的视差精化方法,获得了高精度的视差图。实验结果表明,所提算法在Middlebury测试平台上平均误匹配误差为6.1%,且对光照失真条件具有较高的稳健性。 相似文献
11.
12.
针对SURF(speeded-up robust features)算法计算量大、图像拼接效率低的不足,以FAST (features from accelerated segment test)角点取代SURF斑点在图像重合区域提取特征点,使用SURF描述子进行特征点描述,通过描述子降维、自适应最近邻与次近邻比值法、几何约束法剔除错误匹配点,提高匹配的准确性。匹配完成后,通过减少样本集的个数和舍弃不合理参数模型来改进RANSAC(random sample consensus)方法,获取单应性矩阵,最后进行图像变换、融合和拼接。实验结果显示,该图像拼接算法与传统的SURF算法相比,图像拼接总时间减少了12%,拼接效率得到了显著提高。 相似文献
13.
针对传统特征光流场跟踪方法中由于误差积累和错误匹配而导致的特征点丢失问题,基于一种新的Harris-SIFT特征点表示方法,提出基于预测帧与关键帧的算法框架,实现了光流场运动估计与局部特征识别相结合的目标跟踪方法.预测帧利用塔式分解和递归算法计算特征点的光流场运动矢量,使用运动矢量直方图获取目标的运动矢量,并剔除误匹配点;当特征点数量小于5个时,关键帧使用Harris-SIFT特征点进行局部特征匹配,利用仿射模型对目标精确定位及姿态修正.实验结果表明,本方法对视频序列中的纹理特征目标跟踪的鲁棒性较好,在背景复杂、目标遮挡或暂时丢失情况下,仍可以继续完成目标的可靠跟踪. 相似文献
14.
针对传统特征光流场跟踪方法中由于误差积累和错误匹配而导致的特征点丢失问题,基于一种新的Harris-SIFT特征点表示方法,提出基于预测帧与关键帧的算法框架,实现了光流场运动估计与局部特征识别相结合的目标跟踪方法.预测帧利用塔式分解和递归算法计算特征点的光流场运动矢量,使用运动矢量直方图获取目标的运动矢量,并剔除误匹配点;当特征点数量小于5个时,关键帧使用Harris-SIFT特征点进行局部特征匹配,利用仿射模型对目标精确定位及姿态修正.实验结果表明,本方法对视频序列中的纹理特征目标跟踪的鲁棒性较好,在背景复杂、目标遮挡或暂时丢失情况下,仍可以继续完成目标的可靠跟踪. 相似文献
15.
视频场景变化检测对于视频的标注以及语义检索具有非常重要的作用。本文提出了一种结合SIFT(Scale Invariant Feature Transformation)特征点提取的场景变化检测算法。首先利用SIFT算法分别提取出视频前后帧的特征点并分别统计其数量,然后对视频前后帧进行图像匹配,统计匹配上的特征点数量,最后将该帧的匹配特征点数量与该帧前一帧的特征点数量做比值,从而通过该比值判断场景变化情况。实验结果表明,视频场景突变检测率平均可以达到95.79%。本算法可以在视频帧进行图像匹配的过程中对场景的变化情况进行判断,因此该算法不仅应用范围较广,还可以保证场景变化检测的精度,仿真结果证明了算法的有效性。 相似文献
16.
Based on the homography between a multi-source image and three-dimensional (3D) measurement points, this letter proposes a novel 3D registration and integration method based on scale-invariant feature matching. The matching relationships of two-dimensional (2D) texture gray images and two-and-a-half- dimensional (2.5D) range images are constructed using the scale-invariant feature transform algorithms. Then, at least three non-collinear 3D measurement points corresponding to image feature points are used to achieve a registration relationship accurately. According to the index of overlapping images and the local 3D border search method, multi-view registration data are rapidly and accurately integrated. Experimental results on real models demonstrate that the algorithm is robust and effective. 相似文献
17.
针对手持移动摄像装置拍摄视频序列相邻帧间存在平移、小角度旋转运动,而且易受噪声、光照变化的影响等问题,提出一种基于优化Oriented FAST and rotated BRIEF(ORB)特征匹配的实时鲁棒电子稳像算法。对相邻帧预处理后用Oriented FAST算子检测特征点,再用Rotated BRIEF描述提取的特征点并采用近邻汉明距离匹配特征点对,然后采用级联滤波去除误匹配点对,最后使用迭代最小二乘法(ILSM)拟合模型参量进行运动补偿实现稳像。图像匹配测试和稳像实验结果表明:基于改进的ORB算法的电子稳像方法补偿每一帧的时间均小于0.1 s,定位精度可达亚像素级,能有效补偿帧间平移旋转运动,而且对噪声和光照变化有较强鲁棒性。经稳像处理后,实拍视频质量明显提高,峰值信噪比(PSNR)平均提高了10 db。 相似文献
18.
针对目前图像拼接中计算量较大、实时性较差的问题,本文提出了一种图像局部特征自适应的快速尺度不变特征变换(SIFT)拼接方法。首先,对待拼接图像分块,确定图像局部块的特征类型;接着自适应采用不同的简化方法提取各局部块的特征点。然后,通过特征匹配求出变换矩阵,并结合RANSAC算法去除伪匹配对。最后,通过图像融合得到最终的拼接图像。文中使用提出的方法对3组待拼接图像进行实验。从实验结果可以看出:与标准拼接方法相比,本文改进方法的计算速度提升了30%~45%。因此,这种方法能够在保证图像拼接质量的前提下,有效提高图像拼接的效率,克服图像拼接中计算复杂度高的问题,在实际图像拼接中具有一定的应用价值。 相似文献
19.
Mean shift is an efficient pattern match algorithm. It is widely used in visual tracking fields since it need not perform
whole search in the image space. It employs gradient optimization method to reduce the time of feature matching and realize
rapid object localization, and uses Bhattacharyya coefficient as the similarity measure between object template and candidate
template. This thesis presents a mean shift algorithm based on coarse-to-fine search for the best kernel matching. This paper
researches for object tracking with large motion area based on mean shift. To realize efficient tracking of such an object,
we present a kernel matching method from coarseness to fine. If the motion areas of the object between two frames are very
large and they are not overlapped in image space, then the traditional mean shift method can only obtain local optimal value
by iterative computing in the old object window area, so the real tracking position cannot be obtained and the object tracking
will be disabled. Our proposed algorithm can efficiently use a similarity measure function to realize the rough location of
motion object, then use mean shift method to obtain the accurate local optimal value by iterative computing, which successfully
realizes object tracking with large motion. Experimental results show its good performance in accuracy and speed when compared
with background-weighted histogram algorithm in the literature. 相似文献