首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 171 毫秒
1.
赵鹏图  达飞鹏 《光学学报》2019,39(5):125-132
针对全空间仿射不变(ASIFT)算法在解决大视角场景下的图像匹配问题时存在稳健性差、匹配效率低的缺点,提出了一种新的图像匹配算法。采用非线性扩散滤波代替高斯线性滤波对图像进行预处理,以提高检测到的特征点的稳健性;在图像模拟变换过程中采用掩模算子对有效区域进行标记,以提高特征点检测效率。根据视角模拟变换原理,提取特征点不同视角变换下的邻域信息,提出了多视角最近邻匹配与加权匹配规则,建立了多视角描述子,提升了匹配效率。实验结果证明,相比现有的特征匹配算法,所提算法不仅对视角变化具有很好的稳健性,还提高了图像匹配效率与准确度。  相似文献   

2.
许允喜  蒋云良  陈方 《光子学报》2014,40(3):471-475
 针对景象匹配辅助惯性组合导航系统需要快速准确获取飞行器位置和航向偏差的要求,提出了一种基于区域协方差的实时图像匹配算法.算法采用区域协方差矩阵的距离作为图像匹配时的相似性度量.首先,对图像进行高斯平滑滤波,提取图像的多种特征计算区域协方差矩阵,利用金字塔多级匹配技术进行全局搜索,获得测试图在参考图中像素级匹配位置.然后,利用全局匹配的结果,在实测图上选取多个局部区域,分别进行局部搜索匹配,获取参考图和实测图中一一对应的局部匹配集.最后,利用RANSAC算法和最小二乘算法计算出两幅图像间的最优相似变换参量.仿真分析表明,该算法能满足景象匹配辅助惯性组合导航系统实时性、精确性和鲁棒性的要求.  相似文献   

3.
《光学技术》2013,(6):510-516
立体匹配,其目的是在对两幅存在一定视差的图像进行匹配后,获得两幅图像精确的视差图,是计算机视觉领域的重点和难点问题。为了快速、高效地获得高精度的稠密视差图,在充分研究了基于边缘特征的立体匹配和基于局部窗口的立体匹配两类算法的基础上,提出了一种基于局域边缘特征的自适应立体匹配算法。首先该算法自适应地选择局部匹配窗口大小,并计算其中相应位置的权值,实现初次匹配,然后再以基于边缘特征匹配获得的高精度稀疏视差图作为约束,修正部分误匹配点,最终获得准确、稠密的视差图。实验表明,该算法具良好的实验结果和较大的实用价值。  相似文献   

4.
基于区域协方差的惯性组合导航景象匹配算法   总被引:1,自引:1,他引:0  
许允喜  蒋云良  陈方 《光子学报》2011,40(3):471-475
针对景象匹配辅助惯性组合导航系统需要快速准确获取飞行器位置和航向偏差的要求,提出了一种基于区域协方差的实时图像匹配算法.算法采用区域协方差矩阵的距离作为图像匹配时的相似性度量.首先,对图像进行高斯平滑滤波,提取图像的多种特征计算区域协方差矩阵,利用金字塔多级匹配技术进行全局搜索,获得测试图在参考图中像素级匹配位置.然后...  相似文献   

5.
水下环境中基于曲线约束的SIFT特征匹配算法研究   总被引:1,自引:0,他引:1  
张强  郝凯  李海滨 《光学学报》2014,34(2):215003-197
针对水下双目图像匹配时不再满足空气中极线约束条件以及尺度不变特征变换(SIFT)特征匹配算法处理水下图像误匹配率较高等问题,提出一种基于曲线约束的水下特征匹配算法。对双目摄像机进行标定获取相关参数,再获取参考图和待匹配图;利用SIFT算法对两幅图像进行匹配,同时利用由参考图提取的特征点推导出其在待匹配图上对应的曲线,将该曲线作为约束条件判定待匹配图上对应特征点是否在曲线上,从而剔除误匹配点,以达到提高精度的目的。实验结果表明,该算法优于SIFT算法,可以有效地剔除误匹配点,比SIFT算法匹配精度提高约12%,解决了SIFT算法在水下双目立体匹配中误匹配率高的问题。  相似文献   

6.
王敬东  王智慧  张春  丁尤蓉 《光子学报》2014,(11):1372-1376
针对特征匹配的电子稳像算法存在特征点提取耗时多、准确度不高以及特征点误匹配等问题,从特征点提取及特征点匹配两个方面采取了优化措施,采用基于快速分割特征点提取算法更快地提取特征点,并把特征点定位准确度提高到亚像素级;引入随机采样一致性算法消除误匹配的特征点对,减少场景中局部运动的影响,提高了全局运动参量的估计准确性.实验结果表明,经优化技术处理后,视频稳像准确度高、速度快,能够在存在平移、缩放、旋转及局部有相对运动等情况时保持良好的视频稳像效果.  相似文献   

7.
王敬东  王智慧  张春  丁尤蓉 《光子学报》2012,41(11):1372-1376
针对特征匹配的电子稳像算法存在特征点提取耗时多、准确度不高以及特征点误匹配等问题,从特征点提取及特征点匹配两个方面采取了优化措施,采用基于快速分割特征点提取算法更快地提取特征点,并把特征点定位准确度提高到亚像素级;引入随机采样一致性算法消除误匹配的特征点对,减少场景中局部运动的影响,提高了全局运动参量的估计准确性.实验结果表明,经优化技术处理后,视频稳像准确度高、速度快,能够在存在平移、缩放、旋转及局部有相对运动等情况时保持良好的视频稳像效果.  相似文献   

8.
高分辨率遥感图像SIFT和SURF算法匹配性能研究   总被引:1,自引:0,他引:1       下载免费PDF全文
遥感图像匹配是图像校正、拼接的基础。由于遥感图像特征相似度大,重叠区域小,遥感图像对匹配算法的要求更高。本文首先从特征检测、特征描述和特征匹配三个方面,比较了SIFT算法和SURF算法在计算速度和准确度方面性能,然后研究了算法对遥感图像重叠度、度量距离的要求,并针对SURF算法对特征方向误差敏感的特点,提出一种oSURF算法;最后利用卫星1A级条带遥感图像分析各个算法优劣性。测试结果表明,相比于SIFT算法,SURF算法计算速度为SIFT的3倍,需要的图像重叠宽度仅为1.25倍描述向量尺寸,而在保证同样匹配率的情况下,SIFT算法则需要图像重叠宽度为1.5倍描述向量尺寸。本文提出的oSURF算法在保证计算速度的同时,准确度相对于SURF算法提升5%~10%,因此,oSURF算法更适合1A级条带遥感图像的拼接。  相似文献   

9.
周磊  马立 《应用光学》2019,40(4):583-588
针对图像特征误匹配数量大的问题,提出一种基于稀疏光流法的ORB图像特征点匹配算法。对特征点进行暴力匹配得到初始匹配点集,利用稀疏光流法计算特征点运动向量,估计出特征点在待匹配图像中的二维坐标位置,剔除偏离估计位置较远的特征点匹配对,最后利用随机抽样一致算法进行几何校验进一步优化匹配结果,达到剔除误匹配的效果。实验结果表明:该算法相较于ORB算子、SIFT算子、SURF算子准确率平均提升了21.6%,较RANSAC-ORB算法准确率平均提升了2%,且该算法对图像光照变换、视角变换、模糊变换、旋转和缩放变换和光照变化具有较好的通用性。  相似文献   

10.
基于改进梯度和自适应窗口的立体匹配算法   总被引:3,自引:0,他引:3  
祝世平  李政 《光学学报》2015,35(1):110003
立体匹配技术是计算机视觉领域的研究热点,由于问题本身的病态性,一直没有得到很好地解决。针对现有局部立体匹配算法精度不高以及易受光照失真影响的问题,提出了一种基于改进梯度匹配代价和自适应窗口的匹配算法。在传统梯度向量仅包含幅度信息的基础上,引入相位信息,并对原始匹配代价进行变换,进一步消除异常值;利用图像结构和色彩信息构建自适应窗口进行代价聚合;提出了一种局部视差直方图的视差精化方法,获得了高精度的视差图。实验结果表明,所提算法在Middlebury测试平台上平均误匹配误差为6.1%,且对光照失真条件具有较高的稳健性。  相似文献   

11.
针对现有立体匹配算法匹配速度的不足,提出一种基于区域约束的快速立体匹配算法。选取4对稳定的特征点作为初始匹配点对,在左右图像中分别构建四边形,然后将四边形划分成4个三角形,以每个三角形对为待匹配区域,利用仿射不变性进行区域内特征点匹配。获得特征点匹配对后,再以每个特征点为中心进行开窗,利用传统的基于灰度信息的方法进行精度验证。实验表明,该算法在保证一定精度的情况下能获得较高的匹配速度,可满足实时性要求。  相似文献   

12.
陈伟  刘宇  王亚伟  孙静  嵇婷  赵青林 《应用光学》2021,42(4):636-642
针对SURF(speeded-up robust features)算法计算量大、图像拼接效率低的不足,以FAST (features from accelerated segment test)角点取代SURF斑点在图像重合区域提取特征点,使用SURF描述子进行特征点描述,通过描述子降维、自适应最近邻与次近邻比值法、几何约束法剔除错误匹配点,提高匹配的准确性。匹配完成后,通过减少样本集的个数和舍弃不合理参数模型来改进RANSAC(random sample consensus)方法,获取单应性矩阵,最后进行图像变换、融合和拼接。实验结果显示,该图像拼接算法与传统的SURF算法相比,图像拼接总时间减少了12%,拼接效率得到了显著提高。  相似文献   

13.
贾伟  孙伟  李大健 《光子学报》2012,41(10):1230-1235
针对传统特征光流场跟踪方法中由于误差积累和错误匹配而导致的特征点丢失问题,基于一种新的Harris-SIFT特征点表示方法,提出基于预测帧与关键帧的算法框架,实现了光流场运动估计与局部特征识别相结合的目标跟踪方法.预测帧利用塔式分解和递归算法计算特征点的光流场运动矢量,使用运动矢量直方图获取目标的运动矢量,并剔除误匹配点;当特征点数量小于5个时,关键帧使用Harris-SIFT特征点进行局部特征匹配,利用仿射模型对目标精确定位及姿态修正.实验结果表明,本方法对视频序列中的纹理特征目标跟踪的鲁棒性较好,在背景复杂、目标遮挡或暂时丢失情况下,仍可以继续完成目标的可靠跟踪.  相似文献   

14.
贾伟  孙伟  李大健 《光子学报》2014,41(10):1230-1235
针对传统特征光流场跟踪方法中由于误差积累和错误匹配而导致的特征点丢失问题,基于一种新的Harris-SIFT特征点表示方法,提出基于预测帧与关键帧的算法框架,实现了光流场运动估计与局部特征识别相结合的目标跟踪方法.预测帧利用塔式分解和递归算法计算特征点的光流场运动矢量,使用运动矢量直方图获取目标的运动矢量,并剔除误匹配点;当特征点数量小于5个时,关键帧使用Harris-SIFT特征点进行局部特征匹配,利用仿射模型对目标精确定位及姿态修正.实验结果表明,本方法对视频序列中的纹理特征目标跟踪的鲁棒性较好,在背景复杂、目标遮挡或暂时丢失情况下,仍可以继续完成目标的可靠跟踪.  相似文献   

15.
视频场景变化检测对于视频的标注以及语义检索具有非常重要的作用。本文提出了一种结合SIFT(Scale Invariant Feature Transformation)特征点提取的场景变化检测算法。首先利用SIFT算法分别提取出视频前后帧的特征点并分别统计其数量,然后对视频前后帧进行图像匹配,统计匹配上的特征点数量,最后将该帧的匹配特征点数量与该帧前一帧的特征点数量做比值,从而通过该比值判断场景变化情况。实验结果表明,视频场景突变检测率平均可以达到95.79%。本算法可以在视频帧进行图像匹配的过程中对场景的变化情况进行判断,因此该算法不仅应用范围较广,还可以保证场景变化检测的精度,仿真结果证明了算法的有效性。  相似文献   

16.
Based on the homography between a multi-source image and three-dimensional (3D) measurement points, this letter proposes a novel 3D registration and integration method based on scale-invariant feature matching. The matching relationships of two-dimensional (2D) texture gray images and two-and-a-half- dimensional (2.5D) range images are constructed using the scale-invariant feature transform algorithms. Then, at least three non-collinear 3D measurement points corresponding to image feature points are used to achieve a registration relationship accurately. According to the index of overlapping images and the local 3D border search method, multi-view registration data are rapidly and accurately integrated. Experimental results on real models demonstrate that the algorithm is robust and effective.  相似文献   

17.
谢征  崔少辉  李金伦 《应用光学》2015,36(6):893-899
针对手持移动摄像装置拍摄视频序列相邻帧间存在平移、小角度旋转运动,而且易受噪声、光照变化的影响等问题,提出一种基于优化Oriented FAST and rotated BRIEF(ORB)特征匹配的实时鲁棒电子稳像算法。对相邻帧预处理后用Oriented FAST算子检测特征点,再用Rotated BRIEF描述提取的特征点并采用近邻汉明距离匹配特征点对,然后采用级联滤波去除误匹配点对,最后使用迭代最小二乘法(ILSM)拟合模型参量进行运动补偿实现稳像。图像匹配测试和稳像实验结果表明:基于改进的ORB算法的电子稳像方法补偿每一帧的时间均小于0.1 s,定位精度可达亚像素级,能有效补偿帧间平移旋转运动,而且对噪声和光照变化有较强鲁棒性。经稳像处理后,实拍视频质量明显提高,峰值信噪比(PSNR)平均提高了10 db。  相似文献   

18.
图像局部特征自适应的快速SIFT图像拼接方法   总被引:1,自引:0,他引:1       下载免费PDF全文
陈月  赵岩  王世刚 《中国光学》2016,9(4):415-422
针对目前图像拼接中计算量较大、实时性较差的问题,本文提出了一种图像局部特征自适应的快速尺度不变特征变换(SIFT)拼接方法。首先,对待拼接图像分块,确定图像局部块的特征类型;接着自适应采用不同的简化方法提取各局部块的特征点。然后,通过特征匹配求出变换矩阵,并结合RANSAC算法去除伪匹配对。最后,通过图像融合得到最终的拼接图像。文中使用提出的方法对3组待拼接图像进行实验。从实验结果可以看出:与标准拼接方法相比,本文改进方法的计算速度提升了30%~45%。因此,这种方法能够在保证图像拼接质量的前提下,有效提高图像拼接的效率,克服图像拼接中计算复杂度高的问题,在实际图像拼接中具有一定的应用价值。  相似文献   

19.
Mean shift is an efficient pattern match algorithm. It is widely used in visual tracking fields since it need not perform whole search in the image space. It employs gradient optimization method to reduce the time of feature matching and realize rapid object localization, and uses Bhattacharyya coefficient as the similarity measure between object template and candidate template. This thesis presents a mean shift algorithm based on coarse-to-fine search for the best kernel matching. This paper researches for object tracking with large motion area based on mean shift. To realize efficient tracking of such an object, we present a kernel matching method from coarseness to fine. If the motion areas of the object between two frames are very large and they are not overlapped in image space, then the traditional mean shift method can only obtain local optimal value by iterative computing in the old object window area, so the real tracking position cannot be obtained and the object tracking will be disabled. Our proposed algorithm can efficiently use a similarity measure function to realize the rough location of motion object, then use mean shift method to obtain the accurate local optimal value by iterative computing, which successfully realizes object tracking with large motion. Experimental results show its good performance in accuracy and speed when compared with background-weighted histogram algorithm in the literature.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号