共查询到20条相似文献,搜索用时 578 毫秒
1.
针对现有基于transformer的方法未能充分融合遥感图像多尺度特征的问题,提出一种多光谱-全色融合网络。在融合网络中嵌入一个基于改进Swin transformer的多尺度窗口自注意力模块,在关注全局空间特征的同时,充分融合不同尺寸的特征信息,从而最大程度地保留光谱和空间结构信息。通过不同层级特征的跳跃连接,解码网络预测出原始多光谱图像缺失的纹理部分,最终使用细节注入模型恢复出目标图像。为了提升融合效果,在损失函数中加入了光谱损失和空间结构损失。与其他方法相比,本文提出的方法在WorldView-4、QuickBird和WorldView-2三种卫星数据集的主观视觉效果最好,相比于性能第二的方法,本文方法在三种数据集的相对全局误差指标分别减小了11.99%、0.4%和3.43%。 相似文献
2.
针对当前遥感目标检测方法只能识别出遥感目标的类别及位置,无法生成与遥感图像内容相关文本描述的问题,提出了一种基于注意力和强化学习的遥感图像描述方法.首先,采用卷积神经网络构建编码器,提取遥感图像的特征.其次,利用长短期记忆网络搭建解码器,学习图像特征与文本语义特征间的映射关系.然后,引入注意力机制,增强模型对显著性特征的关注,减少无关背景特征的干扰.最后,采用强化学习策略,根据离散且不可微的评价指标直接对模型进行优化,消除暴露偏差及优化方向不一致的缺陷.在公开遥感图像描述数据集中的实验结果表明,本方法的检测精度较高,对密集小目标、雾气积聚、背景特征与目标特征相似等复杂环境下的遥感图像具有良好的描述性能. 相似文献
3.
针对光学成像设备在雾天搜集到的图像存在的降质问题,提出了一种基于对偶学习的从源域到目标域转换的对偶去雾网络以实现图像去雾功能。网络首先采用对偶生成对抗网络直接学习有雾图像与无雾图像之间的双向映射关系,并将有雾到无雾图像的映射作为初步的去雾结果,随后采用预训练模型在特征空间计算去雾图像与真实无雾图像的特征向量,运用欧式距离作为损失函数最小化特征向量之间的距离,以保证去雾图像在特征层面与真实无雾图像接近。实验结果表明,对偶去雾网络得到的去雾结果具有较高的峰值信噪比和较低的色差值,并能够有效保留图像的结构信息。 相似文献
4.
基于光谱响应函数的遥感图像融合对比研究 总被引:3,自引:0,他引:3
遥感图像融合是一个十分重要的问题,目前已出现了很多融合方法.一些现有方法可以从高空间分辨率全色数据中提取细节特征,并注入到低空间分辨牢多光谱数据中,同时尽可能保持多光谱数据的光谱特性.现有方法一般都不能利用遥感成像系统的物理信息,因此可能导致融合结果发生严重的光谱扭曲.该文采用适当的遥感图像融合模型对图像融合问题进行分解,将融合问题归结为空间细节调制参数构建与空间细节信息提取两个子问题,在对传感器光谱响应函数(SRF)的分析基础上,构建合理的空间细节调制参数.依据对现有方法的分类,文章将三种基于SRF的空间细节调制参数构建方法,与高斯高通滤波提取的空间细节信息结合,产生三种基于SRF的遥感图像融合方法.这些方法在Ikonos数据上进行了试验和分析,并与GS和HPM方法进行对比. 相似文献
5.
针对当前基于条件生成对抗网络的红外图像生成算法中红外生成图像纹理细节信息差和结构信息差的问题,提出了一种基于改进的条件生成对抗网络的红外图像生成算法。首先,基于ConvNext改进了生成网络,在生成网络解码部分通过添加残差连接增强了解码部分对编码部分提取的图像深层特征的利用;其次,生成网络采用UNet网络架构,增强了对图像底层特征的利用;最后,对抗网络通过对生成图像特征的一阶统计量(均值)和二阶统计量(标准差)的损失计算,进一步改善了红外生成图像的灰度信息和纹理细节信息。与现有典型红外图像生成算法的对比实验结果表明,该方法能够生成质量更高的红外图像,在主观视觉描述和客观指标评价上都取得了更好表现。匹配应用实验表明,该算法在可见光图像与红外图像异源匹配任务中体现了较好的应用价值。 相似文献
6.
针对现有基于深度学习的轻量级目标检测算法对复杂遥感场景图像中舰船目标检测精度低、检测速度慢的问题,提出了一种面向嵌入式平台的轻量级光学遥感图像舰船实时检测算法(STYOLO)。首先,针对主干网络内存访问成本较高的问题,利用高效网络架构ShuffleNet v2作为主干网络对图像进行特征提取,降低内存访问成本,提高网络并行度;其次,利用Slim-neck特征融合结构作为特征增强网络,以融合较低层级特征图中的细节信息,增强对小目标的特征响应,在多尺度信息融合区域施加坐标注意力机制,强化目标关注以提高较难样本检测以及抗背景干扰能力;最后,提出一种跨域迁移和域内迁移相结合的学习策略,减少源域与目标域的差异性,提升迁移学习效果。实验结果表明:基于光学遥感图像舰船检测公开数据集HRSC2016,与同类型快速检测算法YOLOv5s相比,所提算法的检测精度提高了2.7个百分点,参数量减少了61.77%,在嵌入式平台Jetson Nano上检测速度达到102.8 frame/s,能够有效实现对光学遥感图像中舰船目标的实时、准确检测。 相似文献
7.
8.
针对目前基于深度学习的舰船目标斜框检测方法存在计算量大、效率低的问题,提出一种基于目标中心点的单阶段检测模型.由于舰船中心点不受舰船分布方向影响,模型主要思想是以目标中心点检测为基础,回归中心点处目标斜框的尺度和方向.首先设计特征提取网络,将卷积神经网络细节信息丰富的底层特征与语义信息丰富的高层特征融合起来形成特征图;然后将特征图输入到三个检测分支,分别预测目标中心点、中心点偏移值以及斜框的尺度与方向;设计组合损失函数对网络进行训练,并改进非极大值抑制算法以适应目标斜框检测的需要.在公开的SAR图像舰船目标检测数据集与光学遥感图像上进行了实验,实验结果表明,测试集平均准确率达0.906,检测精度与速度均优于其它检测模型,充分验证了所提算法的有效性. 相似文献
9.
针对遥感图像在频率域中的表征,提出了一种基于光谱空间变换的遥感图像目标探测方法。该方法首先利用傅里叶变换,将遥感图像从空域转变到频率域;然后利用频谱能量楔状采样和谐波叠置等手段,将不同频谱能量所表征的目标特征信息分解到不同的高、低频段中,由此获取对应目标特征在频率域中的探测标志;最后结合在频谱能量上具有方向和频带选择性的匹配Gabor滤波器,实现了居民楼地物目标的有效探测。试验结果表明,文章所提出的方法能够较好地探测遥感图像的目标信息,并且具有特定方向上目标检测的能力。 相似文献
10.
传统的高光谱图像分类主要是基于像素的光谱特征,在一定程度上忽略了高光谱遥感图像中像素之间的空间相关性。为了充分利用高光谱图像中的空间信息,提出了一种基于加权多结构元素无偏差形态学的空间特征提取方法,并基于形态学的多尺度特征和结构保持性提出了基于邻域的多尺度空间特征提取方法,得到了高光谱遥感图像的空间特征。对k-NN分类算法进行改进,提出了基于变精度粗糙集和重构误差的k-NN分类算法,实现了基于空间特征的高光谱遥感图像分类。在两个不同的高光谱遥感图像的实验验证了基于空间特征和改进k-NN分类算法的性能。 相似文献
11.
12.
为更有效地将空间观测技术应用于城市地理信息系统等领域,提出了一种新的基于遥感图像的城市道路自动测绘方法.该方法通过构建对象网络来表达图像结构,获取客观的处理单元.在此基础上,针对感兴趣特征,利用无监督学习来综合分析遥感图像中道路目标的各类可视及非可视化信息,快速标记并定位目标区域.方法中还结合上下文信息进行空间平滑处理,大大消除了噪声、遮挡等影响.矢量标绘后可以量测得到城市道路的准确轮廓及相关参数.实验表明,该方法准确率高、鲁棒性好,适用于绝大多数高分辨率城市遥感图像中道路目标的自动测绘,在地理信息系统和数字城市系统建设中具有较大的实用价值. 相似文献
13.
14.
目标域遥感图像特征分布的变化,导致遥感场景零样本分类性能下降,针对该问题,提出一种基于局部保持的遥感场景零样本分类算法。首先,为减少冗余信息,采用解析字典学习方法,将源域中的场景图像特征和类别语义词向量嵌入到同一稀疏编码空间,并实现两者稀疏系数的强制对齐,以建立图像特征与词向量之间的关系;然后,通过保留图像特征空间中场景图像间的局部近邻关系,增强场景图像对应稀疏系数的鉴别性,以有助于对稀疏系数进行聚类分析;最后,为适应目标域图像特征分布变化,采用k-means算法对目标域场景图像的稀疏系数进行聚类,并以初始中心的类别标签作为对应的聚类簇中场景的类别标签。实验分别采用GoogLeNet和VGGNet图像特征,以数据集UCM作为源域遥感场景集,对目标域场景集RSSCN7进行零样本分类,获得了最高50.67%和53.29%的总体分类准确度,比现有算法各提升了8.06%和9.70%。实验结果表明:该算法能够适应目标域遥感场景图像特征分布的变化,显著提升遥感场景零样本分类效果,具有一定的优越性。 相似文献
15.
16.
针对常用的目标检测算法对遥感图像中的舰船目标进行检测时存在检测精度与实时性兼顾不佳的问题,提出了基于特征融合的遥感图像舰船目标检测算法来检测复杂场景下的多尺度舰船目标.该算法以多尺度单发射击检测框架为基础,增加反卷积特征融合模块和池化特征融合模块,增强网络特征提取的能力.同时设计聚焦分类损失函数来解决训练过程中正负样本失衡的问题.在高分遥感舰船目标数据集上的实验结果表明,所提方法能够有效地增强复杂场景下舰船目标的检测精度.此外,该算法对遥感图像中的模糊舰船目标的检测效果也优于多尺度单发射击检测框架. 相似文献
17.
为了提高多光谱图像的空间分辨能力的同时更大程度地保持光谱信息,提出了结合多元经验模态分解和加权最小二乘滤波器的遥感图像融合方法.多元经验模态分解解决了传统的基于单变量经验模态分解的遥感图像融合方法中多光谱图像的亮度分量和全色图像分解出的子图像频率不匹配导致融合图像空间细节信息缺失问题,加权最小二乘滤波器可以精确地估计出源图像的低频信息继而得到高频信息,减小了传统的经验模态分解方法估计的高频信息中混有低频成分而导致的光谱失真问题.将两者的优点结合,采用不同的融合规则得到的融合图像在空间细节和光谱信息的保持度较好.选取多组不同卫星数据进行仿真实验,并与结合多元经验模态分解和àtrous小波变换的方法以及基于加权最小二乘滤波器的遥感图像融合方法等方法进行比较,实验结果表明本文方法在光谱质量和空间分辨率方面都取得了很好的性能. 相似文献
18.
为了提高对复杂场景下多尺度遥感目标的检测精度,提出了基于多尺度单发射击检测(SSD)的特征增强目标检测算法.首先对SSD的金字塔特征层中的浅层网络设计浅层特征增强模块,以提高浅层网络对小目标物体的特征提取能力;然后设计深层特征融合模块,替换SSD金字塔特征层中的深层网络,提高深层网络的特征提取能力;最后将提取的图像特征与不同纵横比的候选框进行匹配以执行不同尺度遥感图像目标检测与定位.在光学遥感图像数据集上的实验结果表明,该算法能够适应不同背景下的遥感目标检测,有效地提高了复杂场景下的遥感目标的检测精度.此外,在拓展实验中,文中算法对图像中的模糊目标的检测效果也优于SSD. 相似文献
19.
针对红外图像对比度低、细节较差,且一般是黑白图像,不适宜于人眼观察,提出一种利用局部线性映射方法(LLE)的红外成像彩色化方法。该方法寻求灰度空间到色彩空间的映射,实现红外图像到彩色红外图像的转变,先将目标红外图像和彩色模板图像转换至YUV颜色空间,分离亮度和色彩信息;然后将目标红外图像的每个像素及邻域像素的灰度值串接成矢量,并均匀从彩色模板图像选取部分像素按相同方法串接成矢量,采用欧氏距离搜索最近邻并计算最佳的匹配系数,经色彩值(即U和V分量)计算将模板图像的彩色传递给目标红外图像后搜索亮度最大值的像素邻域并经自动阈值伪彩色编码处理,突出显示重要目标,得到处理后的彩色红外图像。将算法应用于实验室自主开发的热像仪,算法作用后的红外图像不但有了适于人眼视觉的彩色信息,而且用红、黄等敏感色突出了重点热目标,提高了人眼发现和识别目标的速度,实验结果表明,算法有利于侦察人员长时间的目标观察和识别目标。 相似文献
20.
为了提高雾天图像的去雾效果,提出了一种基于条件生成对抗网络的图像去雾算法.通过端到端可训练的神经网络对合成的室内和室外数据集进行训练,为了捕捉图像中更多的有用信息,在生成网络中设计了生成器和判别器架构,利用预训练的视觉几何组特征模型和L_1-正则化梯度对损失函数进行修正,并在判别器的最后一层引入Sigmoid函数用于特征映射,以便进行概率分析可归一化.利用合成数据集对损失函数进行训练,得到新的损失函数的参数,然后利用室外自然有雾图像数据集对训练得到的新的损失函数进行测试.实验结果表明:所提算法有效解决了去雾图像的颜色失真、过饱和、视觉伪像等问题,生成效果更好的去雾图像. 相似文献