首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 31 毫秒
1.
遥感图像数据量的急剧增加,给研究者们提出了有效检索和管理图像的难题.为了快速准确地检索海量遥感图像,提出一种基于五叉树分解的多通道Gabor纹理特征图像检索新方法.该方法用五叉树分解法层层分解图像,在利用多通道Gabor滤波器与图像做卷积得到滤波能量值基础上,提取各子图像24个滤波能量均值和均方差作为纹理特征,并计算查询图像和与其大小相当的数据库子图像的纹理特征相似性距离,从而获得与查询图像相似的数据库子图像.将该方法用于高分辨率卫星和航空图像数据库的检索,实验结果证明了方法的有效性.  相似文献   

2.
提出了一种基于多尺度特征提取网络的图像美学客观量化评分方法,该模型主要由多个多尺度特征提取单元级联组成,每个单元包含由3个不同卷积核组成的特征提取层、融合层和映射层。特征提取层通过联合图像的全局视图和局部视图组成网络输入端,在输出端以EMD函数为损失函数,输出分布为1~10分的概率密度质量函数,并以分布均值作为图像美学量化值。实验证明,本文方法具有可行性和有效性,解决了传统方法只进行美感二进制等级分类的问题,给出了(模拟人类思维对)图像的客观量化评分;同时在AVA数据集上获得了优于几种主流算法的分类准确度。  相似文献   

3.
单幅图像雨雾去除是计算机视觉研究的热点之一,现有的去雨方法往往需根据雨的特性恢复图像,忽视了场景中的雾以及场景深处雨累积的影响。提出了一种新型单幅图像去雨雾方法,设计了一种基于先验知识的三阶段单幅图像去雨雾框架。首先,将深度图作为图像透射率的引导,利用暗通道先验知识对输入图像的低频部分去雾,然后,采用残差网络学习高频雨痕特征,最后,引入条件生成对抗网络(conditional generative adversarial network,cGAN),对图像局部细节进行精细化修复,cGAN对图像的空间信息和纹理细节更为敏感,能有效恢复去雨雾过程中丢失或未能填补的细节。分别用高质量的合成雨雾数据集和真实数据集进行实验测试,结果表明,本文方法在峰值信噪比和结构相似度上均较基准方法优,能将雾浓度各异和雨分布变化情况下的图像恢复至细节丰富的干净场景图。  相似文献   

4.
基于人工智能技术的生成内容(artificial intelligence generated content,AIGC)已成为当下的热门话题。在众多生成模型中,扩散模型因其高度可解释的数学特性及高质量和多样性的结果引起广泛关注,在条件引导的图像生成领域已取得显著成果,被广泛应用于电影、游戏、绘画和虚拟现实等领域,在文本引导的图像生成任务中,扩散模型不仅能生成高分辨率的图像,而且能保证生成图像的质量。首先介绍了扩散模型的定义和相关背景,然后重点介绍了扩散模型在条件引导的图像生成领域的发展历程和最新进展,最后探讨了扩散模型面临的挑战和潜在的发展方向,旨在为广大研究人员提供相关领域的研究概况和前沿动态。  相似文献   

5.
土地利用信息是国土资源管理的基础和重要依据,随着高分辨率遥感图像数据的日益增多,迫切需要快速准确的土地利用分类方法。目前应用较广的面向对象的分类方法对空间特征的利用尚不够充分,在特征选择上存在一定的局限性。为此,提出一种基于多尺度学习与深度卷积神经网络(deep convolutional neural network,DCNN)的多尺度神经网络(multi-scale neural network,MSNet)模型,基于残差网络构建了100层编码网络,通过并行输入实现输入图像的多尺度学习,利用膨胀卷积实现特征图像的多尺度学习,设计了一种端到端的分类网络。以浙江省0.5 m分辨率的光学航空遥感图像为数据源进行了实验,总体分类精度达91.97%,并将其与传统全卷积网络(fully convolutional networks,FCN)方法和基于支持向量机(support vector machine,SVM)的面向对象方法进行了对比,结果表明,本文所提方法分类精度更高,分类结果整体性更强。  相似文献   

6.
土地利用信息是国土资源管理的基础和重要依据,随着高分辨率遥感图像数据的日益增多,迫切需要快速准确的土地利用分类方法。目前应用较广的面向对象的分类方法对空间特征的利用尚不够充分,在特征选择上存在一定的局限性。为此,提出一种基于多尺度学习与深度卷积神经网络(deep convolutional neural network,DCNN)的多尺度神经网络(multi-scale neural network,MSNet)模型,基于残差网络构建了100层编码网络,通过并行输入实现输入图像的多尺度学习,利用膨胀卷积实现特征图像的多尺度学习,设计了一种端到端的分类网络。以浙江省0.5 m分辨率的光学航空遥感图像为数据源进行了实验,总体分类精度达91.97%,并将其与传统全卷积网络(fully convolutional networks,FCN)方法和基于支持向量机(support vector machine,SVM)的面向对象方法进行了对比,结果表明,本文所提方法分类精度更高,分类结果整体性更强。  相似文献   

7.
为了解决传统图像匹配方法在PCB图像匹配过程中准确率低、耗时长的问题,提出一种基于SURF算法结合曲线拟合方法和K-means聚类算法的改进匹配方法。算法如下:首先利用SURF算法提取图像的特征点,并采用最近邻域法对生成特征描述子的特征点粗匹配得到特征点匹配对,然后通过曲线拟合方法滤除部分匹配对,减少匹配耗时,最后采用K-means聚类算法对匹配对聚类分析提取有效的匹配对,完成对特征点的精确匹配。实验结果表明该算法有效剔除了错误的匹配对,提高了PCB图像的匹配精确率,具有较好的稳定性和实时性。  相似文献   

8.
景深视频因高清、美观广受大众喜爱。然而,要从海量视频中检出此类视频十分困难。已有较多研究基于景深图像成像原理,开展景深像素分割算法研究,但难以直接应用于实际视频分类场景。本文针对景深视频类型,设计了可预测视频类型的深度网络。根据景深成像原理,各语义物体之间相对相机的景深深度存在一定的逻辑关系。为此提出以图像深度为指导,利用深度预测模块预测图像的景深深度信息,将其合并后输入至分类网络进行训练检测,以降低景深视频误检率,提升网络模型的性能。此外,针对现实需求中该领域有标数据较少,而不同数据集分布会降低性能的问题,设计了迭代式景深视频数据集收集方法,以较低的劳动成本快速收集所需要的视频数据,具有一定的实际应用价值。本文算法在快手线上的景深视频数据集中识别准确率达85.7%。  相似文献   

9.
为解决深度学习在图像水印算法中计算量大且模型冗余的问题,提高图像水印算法在抵抗噪声、旋转和剪裁等攻击时的鲁棒性,提出基于快速神经网络架构搜索(neural architecture search,NAS)的鲁棒图像水印网络算法。通过多项式分布学习快速神经网络架构搜索算法,在预设的搜索空间中搜索最优网络结构,进行图像水印的高效嵌入与鲁棒提取。首先,将子网络中线性连接的全卷积层设置为独立的神经单元结构,并参数化表示结构单元内节点的连接,预先设定结构单元内每个神经元操作的搜索空间;其次,在完成一个批次的数据集训练后,依据神经元操作中的被采样次数和平均损失函数值动态更新概率;最后,重新训练搜索完成的网络。水印网络模型的参数量较原始网络模型缩减了92%以上,大大缩短了模型训练时间。由于搜索得到的网络结构更为紧凑,本文算法具有较高的时间性能和较好的实验效果,在隐藏图像时,对空域信息的依赖比原始网络更少。对改进前后的2个网络进行了大量鲁棒性实验,对比发现,本文算法在CIFAR-10数据集上对抵抗椒盐噪声和旋转、移除像素行(列)等攻击优势显著;在ImageNet数据集上对抵抗椒盐高斯噪声、旋转、中值滤波、高斯滤波、JPEG压缩、裁剪等攻击优势显著,特别是对随机移除行(列)和椒盐噪声有较强的鲁棒性。  相似文献   

10.
提出了一种非刚性点匹配的算法并把其运用于医学图像配准.该算法采用信号滤波的方法来获得点集间的匹配信息,并运用松弛标记法将各点邻域关系对模糊的匹配信息进行迭代获得明确的匹配关系.在此基础上,利用高斯径向基函数来描述点模式间的弹性形变,在基本的迭代框架下实现问题的求解.实验结果显示在形变程度为5%、出格点比率50%和噪声标准差为5%的情况下该算法的匹配误差能控制在0.13以下,表明了该算法的鲁棒性和有效性,较好地解决了医学非刚性形变的点匹配问题.  相似文献   

11.
计算机视觉的飞速发展, 使得采用视觉技术辅助无人船航行成为可能. 在无人船巡航过程中, 获取船体航向是航行控制的必备基础. 特征匹配是无人船相关视觉技术中的重要部分, 是目标识别和定位等功能的关键步骤. 获取无人船运动姿态的基本步骤是对图像前后帧进行有效的特征提取和匹配. 针对水域环境中的图像静态特征提取速度慢、精度低的问题, 本文提出一种图像匹配方法以求取无人船的航行姿态角. 首先对图像预处理, 并对有效区域进行特征提取. 其次, 设计一种基于描述子相似度的初始特征匹配策略. 再其次, 筛选特征匹配对, 优化模型参数. 最后, 通过前后帧旋转矩阵计算航行姿态角. 实验表明, 该方法能有效提取无人船的航行姿态角.  相似文献   

12.
如何挖掘基于语义的相关模型是当前自动图像标注技术中一项重要而迫切的研究课题。本文从相关概率模型的角度分析了回归技术解决自动图像标注任务的可行性,进而提出了基于回归相关模型(Regression RelevanceModel,RRM)的自动图像标注框架。RRM通过有效地建立了图像-关键词的相  相似文献   

13.
针对得分信息下带有多种形式主体期望的双边匹配问题,考虑主体的心理行为因素,提出了一种基于前景理论的双边匹配方法.首先,以主体期望为参照点将双边主体给出的得分信息转化为相对于参照点的收益和损失;然后,考虑主体对待收益和损失不同的风险态度,依据前景理论计算每个主体的前景值,在此基础上,建立双边匹配多目标优化模型,使用极大极小法求解该模型,获得双边匹配方案;最后,通过一个算例验证了该方法的可行性和有效性.  相似文献   

14.
将分数阶微分理论引入图像放大模型中,利用全变分思想,提出了基于分数阶偏微分方程的图像放大模型.仿真实验结果表明:新模型能较好地保持图像边缘特征,以及更多的图像纹理信息,优于整数阶微分方程放大算法,是一种有效、可行的图像放大模型.  相似文献   

15.
为提高图像空域隐写算法的视觉不可感知性, 通过结合视觉注意力机制和人眼对图像的灰度及边缘等敏感特性, 提出一种基于视觉模型的感兴趣区域菱形编码隐写算法. 在底层人眼感知判定的基础之上, 根据视觉注意模型划分嵌入等级, 并动态调整秘密信息的嵌入量. 实验结果表明, 与基于边缘自适应的像素对匹配算法相比, 本文提出的算法不仅有较高的视觉不可感知性, 而且能抵抗常用的空域隐写分析.  相似文献   

16.
针对现有的多数图像篡改检测算法中存在着的对旋转、缩放等篡改失效和计算量大等问题,利用三角形具有抗平移、旋转、尺度缩放的优越特性,提出了一种新的图像篡改检测算法.首先,利用Delaunay三角剖分算法对提取的Harris特征角点进行三角剖分,进行相似三角形的初始匹配.然后,以匹配的相似三角形顶点为种子点,建立三角形组,再进行一次相似三角形的匹配,实现对篡改区域的三角形生长.最后,利用区域面积阈值和数学形态学准确定位出篡改区域.实验结果表明,该算法与同类算法相比不仅能有效地对抗旋转、缩放,噪声等后期处理操作,而且对篡改区域有很好的检测和定位效果并具有计算复杂度低的特点.  相似文献   

17.
经典的UNet网络可用于预测全分辨率空间域的密集位移场,在医学图像配准中取得了巨大成功。但对大变形的三维图像配准,还存在运行时间长、无法有效保持拓扑结构、空间特征易丢失等缺点。为此,提出一种基于交叉注意的大内核多尺度可变形医学图像配准网络(large kernel multi-scale deformable medical image registration network based on cross-attention,LK-CAUNet)。在经典UNet模型基础上,通过引入交叉注意力模块,实现高效、多层次的语义特征融合;配备大内核非对称并行卷积,使其具有多尺度特征和对复杂结构的学习能力;通过加入平方和缩放模块,实现拓扑守恒和变换可逆。基于脑部MRI数据集,将LK-CAUNet与18种经典图像配准模型进行了比较,结果表明,LK-CAUNet的配准性能较其他模型有明显提升,其Dice得分较TransMorph配准方法提高了8%,而参数量仅为TransMorph的1/5。  相似文献   

18.
基于结构性信息的纹理合成与图像修复   总被引:1,自引:0,他引:1       下载免费PDF全文
纹理合成与图像修复是计算机图形学中的一个研究热点,具有广泛的应用前景.提出了一种基于结构性信息的判断纹理块匹配误差的新方法:颜色-结构差异算法.该方法同时考虑了纹理块之间颜色误差和结构误差对纹理块的相似性的影响,弥补了单纯考虑颜色误差的不足,保证了图像间结构信息的连贯性,从而确保合成后的纹理及修复后的图像在视觉上的连贯性.  相似文献   

19.
提出了一种基于完备色差模型的分割方法.利用优化的颜色空间模型转换公式,将宫颈癌细胞图像从RGB颜色模型转换为HSV颜色模型,对H、S、V通道分别进行最大类间方差直方图均衡化,构造最优色差模型实现图层重组,然后通过阈值分割结合特征参数筛选完成细胞从复杂背景中的提取.在VC++和OpenCV开发系统予以实现.实验结果表明,在处理背景与目标细胞色彩相似的宫颈癌细胞图片时,能够得到准确、完整的分离结果,弥补了传统分割方法的不足.  相似文献   

20.
文字识别技术在文档管理、图像理解、视觉导航等中具有重要应用。然而,自然场景中的文字通常排列任意、形状不一、字体多样,难以被检测和识别。提出了面向自然场景图像的三阶段文字识别框架,该框架包括文字检测、文字矫正和文字识别。首先,利用特征金字塔网络分割图像中的字符,基于双向长短期记忆网络获取字符间的亲和度,连接孤立字符构建单词行,文字检测率(F分数)高达91.97%。然后,通过多目标矫正网络矫正被检测文字,以应对场景图像文字的复杂形变,增强阅读性。最后,通过注意力序列识别网络按序输出预测结果,实现单词级识别,文字识别正确率达84.98%。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号