首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 171 毫秒
1.
为了有效地克服单波段前视红外图像中存在的点状杂波、条状波浪以及局部高亮区域等随机杂乱背景的影响,开展了基于多波段前视红外图像融合的海面杂乱背景平滑方法的研究。充分利用多波段前视红外图像之间的互补性和差异性,通过融合多波段红外图像的信息,旨在平滑抑制海面杂乱背景并保持舰船目标的特征信息,为舰船目标检测提供一幅优质的图像。首先利用离散小波变换将多波段源图像分解为低频子带和高频子带,其中,高频子带主要包含了图像中背景以及舰船目标的细节信息,低频子带主要包含了图像的亮度以及对比度信息;对于高频子带,在基于高频系数取绝对值最大法得到高频融合图像后,计算每个像素的区域能量来对高频融合图像进行调制以抑制图像背景的细节信息而保留舰船目标的细节信息;对于低频子带,通过平均法融合低频子带并利用导向滤波对低频融合图像进行平滑滤波处理;最后对高频融合图像和低频融合图像进行小波逆变换得到的重构图像即为融合图像。对实际采集的多波段前视红外图像进行仿真实验,将该方法与双边滤波、导向滤波、梯度最小化、相对全变分、双边纹理滤波和滚动滤波共6种图像平滑滤波方法进行对比。结果表明:所提出的方法通过有效地融合多波段图像的信息,将空间域的平滑处理转换到频率域中进行,能够很好地平滑海面随机杂乱背景并较好地保持舰船目标的结构、灰度以及对比度信息,大大增强了舰船目标的可分离性,其图像平滑性能优于作为对比的6种方法。  相似文献   

2.
针对目前合成孔径雷达(SAR)与可见光图像融合结果目标信息缺失、对比度不高的缺点,提出了一种基于纹理分割和top-hat变换的图像增强融合算法。将SAR图像灰度共生矩阵的熵纹理特征图进行阈值分割,提取SAR图像的感兴趣区域(ROI);并对SAR和可见光图像进行非下采样Contourlet变换(NSCT)分解,低频系数采用基于区域的融合规则,在感兴趣区域内选择SAR的低频系数。对低频系数进行top-hat变换得到显著化的图像亮、暗细节特征,并加入到低频系数上形成低频合成系数;高频子带系数采用局部方向信息熵显著性因子取大的融合规则;对融合系数进行NSCT逆变换得到最终的融合图像。实验证明了本算法的有效性。  相似文献   

3.
针对红外偏振与光强图像彼此包含共同信息和特有信息的特点,提出了一种基于双树复小波变换和稀疏表示的图像融合方法.首先,利用双树复小波变换获取源图像的高频和低频成分,并用绝对值最大值法获得融合的高频成分;然后,用低频成分组成联合矩阵,并使用K-奇异值分解法训练该矩阵的冗余字典,根据该字典求出各个低频成分的稀疏系数,通过稀疏系数中非零值的位置信息判断共有信息和特有信息,并分别使用相应的规则进行融合;最后,将融合的高低频系数经过双树复小波反变换得到融合图像.实验结果表明,本文提出的融合算法不仅能较好地凸显源图像的共有信息,而且能很好地保留它们的特有信息,同时,融合图像具有较高的对比度和细节信息.  相似文献   

4.
为了使融合结果突出目标并发掘更多细节,提出了一种基于目标提取与引导滤波增强的红外与可见光图像融合方法。首先对红外图像依据二维Tsallis熵和基于图的视觉显著性模型提取目标区域。然后对可见光与红外图像分别进行非下采样Shearlet变换(NSST),并对所得低频分量进行引导滤波增强。由增强后的红外图像和可见光图像低频分量基于目标提取的融合规则得到融合图像的低频分量,高频分量则根据方向子带信息和取大来确定。最后经NSST逆变换得到融合图像。大量实验结果表明,本文方法在增强融合图像空间细节的同时,有效突出了目标,并且在信息熵、平均梯度等指标上优于基于拉普拉斯金字塔变换、基于小波变换、基于平稳小波变换、基于非下采样Contourlet变换(NSCT)、基于目标提取与NSCT变换等。  相似文献   

5.
为了使融合结果突出目标并发掘更多细节,提出了一种基于目标提取与引导滤波增强的红外与可见光图像融合方法。首先对红外图像依据二维Tsallis熵和基于图的视觉显著性模型提取目标区域。然后对可见光与红外图像分别进行非下采样Shearlet变换(NSST),并对所得低频分量进行引导滤波增强。由增强后的红外图像和可见光图像低频分量基于目标提取的融合规则得到融合图像的低频分量,高频分量则根据方向子带信息和取大来确定。最后经NSST逆变换得到融合图像。大量实验结果表明,本文方法在增强融合图像空间细节的同时,有效突出了目标,并且在信息熵、平均梯度等指标上优于基于拉普拉斯金字塔变换、基于小波变换、基于平稳小波变换、基于非下采样Contourlet变换(NSCT)、基于目标提取与NSCT变换等。  相似文献   

6.
基于NSSCT的红外与可见光图像融合   总被引:1,自引:0,他引:1  
为了克服传统图像融合结果存在对比度不足和细节缺失的缺点,提出基于非下采样剪切波-对比度变换(NSSCT)的图像融合算法。分析了图像经非下采样剪切波变换(NSST)后高频系数间的关联性与差异性,构造了高频系数方向性基本一致的NSSCT变换,保留了融合图像的高频系数细节,并提升了对比度。基于图像的低频特点,采用显著性增强方法对低频系数进行融合,通过NSSCT逆变换得到对比度提升和细节增强的融合图像。实验结果表明,在图像对比度提升与细节保留方面,本文算法比基于小波、NSST和显著性等算法具有明显优势。  相似文献   

7.
将多尺度变换和“高频取大、低频加权平均”融合规则相结合是融合双波段图像的有效方法。但用该类方法融合多波段图像时,序贯式加权常常会导致原图像间固有的差异信息在融合图像中被弱化,从而影响后续的目标识别和场景理解。该问题在融合具有纹理特征的多波段图像时更为突出。为此,提出了一个基于嵌入式多尺度分解和可能性理论的多波段纹理图像融合新方法。首先,利用一种多尺度变换方法把多波段原图像分别分解为高频和低频成分,并对多波段图像中标准差最大的一幅原图像的低频成分利用另一种多尺度方法进行分块,再以该分块图像的大小和位置为标准对其余波段的原图像进行分块。然后,基于可能性理论的相关融合规则逐一融合对应的多波段块图像,再把块融合图像进行拼接,以拼接结果作为低频融合图像。最后,将该低频融合图像和利用取大规则融合得到的高频成分一起通过多尺度逆变换获得最终的融合图像。这种方法不仅将像素级和特征级融合方法综合在一起, 而且将空间域和变换域技术综合在一起, 并通过对大小块采用不同融合规则解决了目标边缘的锯齿效应问题。实验表明该方法效果显著。  相似文献   

8.
将多尺度变换和"高频取大、低频加权平均"融合规则相结合是融合双波段图像的有效方法。但用该类方法融合多波段图像时,序贯式加权常常会导致原图像间固有的差异信息在融合图像中被弱化,从而影响后续的目标识别和场景理解。该问题在融合具有纹理特征的多波段图像时更为突出。为此,提出了一个基于嵌入式多尺度分解和可能性理论的多波段纹理图像融合新方法。首先,利用一种多尺度变换方法把多波段原图像分别分解为高频和低频成分,并对多波段图像中标准差最大的一幅原图像的低频成分利用另一种多尺度方法进行分块,再以该分块图像的大小和位置为标准对其余波段的原图像进行分块。然后,基于可能性理论的相关融合规则逐一融合对应的多波段块图像,再把块融合图像进行拼接,以拼接结果作为低频融合图像。最后,将该低频融合图像和利用取大规则融合得到的高频成分一起通过多尺度逆变换获得最终的融合图像。这种方法不仅将像素级和特征级融合方法综合在一起,而且将空间域和变换域技术综合在一起,并通过对大小块采用不同融合规则解决了目标边缘的锯齿效应问题。实验表明该方法效果显著。  相似文献   

9.
当前较多遥感图像融合算法是利用主成分分析方法来完成遥感图像的融合,由于主成分分析方法融合后的图像会产生光谱畸变,易导致所融合图像存在光谱失真的问题。对此,设计了一种采用双正交小波变换耦合区域梯度特征的遥感图像融合算法。对多光谱图像进行色调-饱和度-亮度变换,以获取多光谱图像的亮度分量,引入双正交小波变换将该亮度分量与全色图像进行小波域分解,以获取图像的低频与高频子带;通过低频子带中像素点的区域梯度特征构造均值梯度模型,用于求取低频子带融合系数,利用高频子带中像素点对应的区域方差构造相似度因子,用于求取高频子带融合系数;通过色调-饱和度-亮度与双正交小波的逆变换获取所融合遥感图像。仿真实验结果显示,所设计方法与当前遥感图像融合方法相比,融合的遥感图像具有更好的视觉效果。  相似文献   

10.
Curvelet变换用于图像去噪可以较好地保留图像的细节信息,但在边缘处会产生"划痕"现象.采用全变差法进行去噪能保持边缘形状不变,但也会丢失图像的纹理等细节信息.为了充分利用两种方法的优点,将Curvelet变换和全变差相结合提出了一种有效的图像去噪方法.首先,对含噪图像分别进行Curvelet阈值去噪和全变差去噪.然后,将两幅去噪图像进行Curvelet融合,对于低频系数和高频系数分别采用加权平均和绝对值取大的融合算法.最后,将融合后的低频系数和各尺度高频系数进行Curvelet反变换得到融合后的去噪图像.实验表明,该方法能有效地降低图像噪声,又尽可能地保留图像的细节,其去噪效果明显优于单一Curvelet阈值法和全变差法.  相似文献   

11.
基于方向金字塔框架变换的遥感图像融合算法   总被引:18,自引:6,他引:12  
为了综合利用多光谱遥感图像与全色遥感图像之间的互补信息,提出了一种方向金字塔框架变换(SPFT),并基于此变换提出了一种遥感图像融合算法。具体融合过程是将多光谱图像的每个波段分别与高分辨力全色图像进行融合,首先将高分辨力全色图像与多光谱图像的待融合波段进行直方图匹配,然后对该波段图像以及直方图匹配后的高分辨力全色图像分别进行方向金字塔框架变换分解,融合过程就是对两图像方向金字塔框架变换分解后的系数进行组合,最后对组合后的系数进行方向金字塔框架逆变换即可得到该波段图像与高分辨力全色图像的融合图像。实验结果表明该算法在性能上优于基于亮度-色调-饱和度(1HS)的彩色空间变换以及基于离散小波框架变换(DWFT)的遥感图像融合方法,尤其对源图像之间存在配准误差的情况。  相似文献   

12.
针对红外与可见光图像特点,提出一种基于小波包变换的融合算法。该算法先对源图像进行小波包分解,得到低频分量和各带通方向子带分量,并对不同分量采用不同的融合规则进行融合处理,得到各融合系数,然后经小波包重构获得融合图像。该方法可提取源图像细节信息,取得较好的融合效果。  相似文献   

13.
基于区域分割和Counterlet变换的图像融合算法   总被引:12,自引:4,他引:8  
提出了一种基于区域分割和Contourlet变换的图像融合算法。首先,对各源图像做区域分割,并利用区域能量比和区域清晰比的概念来度量和提取区域信息;然后,对各源图像进行多尺度非子采样Contourlet分解,分解后的高频部分采用绝对值取大算子进行融合,低频部分则采用基于区域的融合规则和算子进行融合;最后进行重构得到融合图像。对红外与可见光图像进行了融合实验,并与基于像素的àtrous小波变换和Contourlet变换的融合效果进行了比较。结果表明,采用本文算法的融合图像既保留了可见光图像的光谱信息,又继承了红外图像的目标信息,其熵值高于基于像素的融合方法约10%,交叉熵仅为基于像素的融合方法的1%左右。  相似文献   

14.
周巨伟  方志良  杨胜杰  杨勇  母国光 《光子学报》2005,34(12):1889-1892
针对θ调制多光谱照相技术,提出了一种基于小波变换的图像融合及假彩色化新方法,其特点是使用改进的加权平均法融合可见光波段解码图像与红外图像的小波分解低频分量,以局部能量差为测度标准融合高频分量,将融合的图像在RGB空间合成假彩色图像.理论分析和实验结果表明该方法具有良好的融合性能和假彩色效果.  相似文献   

15.
基于非采样Contourlet变换的遥感图像融合算法   总被引:9,自引:5,他引:4  
张强  郭宝龙 《光学学报》2008,28(1):74-80
为了使融合后的多光谱图像在尽可能保持原始多光谱图像光谱特性的同时,显著提高空间分辨力,提出了一种基于非采样Contourlet变换(NSCT)的遥感图像融合算法。算法首先对全色波段图像进行非采样Contourlet变换,得到全色波段图像的低频子带系数和各带通方向子带系数;然后针对多光谱图像的每一个波段,将其进行双线性插值后作为融合后多光谱图像的低频子带系数,对全色波段图像的各带通方向子带系数采用基于成像系统物理特性的注入模型(调整系数)进行局部调整后,作为融合后多光谱图像的各带通方向子带系数,从而得到融合后多光谱图像的非采样Contourlet变换系数;最后再经非采样Contourlet逆变换得到该波段具有高空间分辨力的多光谱图像。采用IKONOS卫星遥感图像进行了仿真实验,实验结果表明,该算法在光谱保留和空间质量提高方面优于其它传统的遥感图像融合算法。  相似文献   

16.
为了提高多聚焦图像的融合精度,结合有限离散剪切波变换(FDST)良好的局部化特性及平移不变性,提出了一种基于有限离散剪切波变换与改进对比度相结合的图像融合新算法。对经过严格配准后的多聚焦图像进行FDST分解,得到低频子带系数和不同尺度不同方向的高频子带系数;对低频子带系数采用区域平均能量匹配度自适应融合算法,高频子带系数的选取则根据低频与高频系数关联得到的对比度进行融合;应用有限离散剪切波逆变换重构得到融合图像,并对融合结果进行主观视觉和客观评价。通过仿真实验,算法在主观视觉效果上有着明显的优越性。在不同融合算法比较的融合结果中,熵值、互信息量和边缘相似度分别平均提高了1.4%、34.6%和8.0%,各项客观评价指标优于其他算法。  相似文献   

17.
刘少鹏  郝群  宋勇  胡摇 《光子学报》2014,39(8):1388-1393
针对源图像有用信息的提取,提出了基于区域分维和非下采样Contourlet变换相结合的红外与可见光图像融合算法.将图像的区域属性、区域大小、边缘强度以及纹理显著程度等特点用图像不同尺度上的区域分维进行描述,对于非下采样Contourlet变换低频系数,根据源图像不同尺度上的区域分维进行基于系数选择的融合.针对带通子带系数设计了系数局部匹配度算子,依据匹配度不同采用加权和系数选取相结合的融合规则.与其他常规融合方法进行比较,该算法可有效实现红外与可见光图像的融合.  相似文献   

18.
基于二代curvelet变换的图像融合研究   总被引:34,自引:0,他引:34  
李晖晖  郭雷  刘航 《光学学报》2006,26(5):57-662
曲波(Curvelet)作为一种新的多尺度分析方法比小波更加适合分析二维图像中的曲线或直线状边缘特征,而且具有更高的逼近精度和更好的稀疏表达能力.将curvelet变换引入图像融合,能够更好地提取原始图像的特征,为融合图像提供更多的信息.第二代curvelet理论的提出也使得其理论更易理解和实现.因此,提出了一种基于第二代curvelet变换的图像融合方法,首先将图像进行curvelet变换,然后在相应尺度上利用融合规则将curvelet系数融合,最后进行重构得到融合结果.对多聚焦图像进行了实验,采用均方误差、偏差指数和相关系数对融合结果进行了客观评价,并与基于小波变换的融合进行了比较,实验结果表明该方法除分解2层时与小波性能相当,取其他分解层数时均获得更好的融合效果.  相似文献   

19.
Multifocus image fusion aims at overcoming imaging cameras's finite depth of field by combining information from multiple images with the same scene. For the fusion problem of the multifocus image of the same scene, a novel algorithm is proposed based on multiscale products of the lifting stationary wavelet transform (LSWT) and the improved pulse coupled neural network (PCNN), where the linking strength of each neuron can be chosen adaptively. In order to select the coefficients of the fused image properly with the source multifocus images in a noisy environment, the selection principles of the low frequency subband coefficients and bandpass subband coefficients are discussed, respectively. For choosing the low frequency subband coefficients, a new sum modified-Laplacian (NSML) of the low frequency subband, which can effectively represent the salient features and sharp boundaries of the image in the LSWT domain, is an input to motivate the PCNN neurons; when choosing the high frequency subband coefficients, a novel local neighborhood sum of Laplacian of multiscale products is developed and taken as one type of feature of high frequency to motivate the PCNN neurons. The coefficients in the LSWT domain with large firing times are selected as coefficients of the fused image. Experimental results demonstrate that the proposed fusion approach outperforms the traditional discrete wavelet transform (DWT)-based, LSWT-based and LSWT-PCNN-based image fusion methods even though the source image is in a noisy environment in terms of both visual quality and objective evaluation.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号