首页 | 本学科首页   官方微博 | 高级检索  
     检索      

融合全局和局部深度特征的高分辨率遥感影像场景分类方法
引用本文:龚希,吴亮,谢忠,陈占龙,刘袁缘,俞侃.融合全局和局部深度特征的高分辨率遥感影像场景分类方法[J].光学学报,2019,39(3):11-21.
作者姓名:龚希  吴亮  谢忠  陈占龙  刘袁缘  俞侃
作者单位:中国地质大学(武汉)信息工程学院,湖北武汉,430074;中国地质大学(武汉)信息工程学院,湖北武汉430074;国家地理信息系统工程技术研究中心,湖北武汉430074;文华学院信息科学与技术学部,湖北武汉,430074
基金项目:国家自然科学基金;国家自然科学基金;国家自然科学基金;国家自然科学基金;国家自然科学基金;国家重点研发计划;国家重点研发计划;国家重点研发计划;国家重点研发计划;湖北省自然科学基金
摘    要:提出了一种融合全局和局部深度特征(GLDFB)的视觉词袋模型。通过视觉词袋模型将深度卷积神经网络提取的多个层次的高层特征进行重组编码并融合,利用支持向量机对融合特征进行分类。充分利用包含场景局部细节信息的卷积层特征和包含场景全局信息的全连接层特征,完成对遥感影像场景的高效表达。通过对两个不同规模的遥感图像场景数据集的实验研究表明,相比现有方法,所提方法在高层特征表达能力和分类精度方面具有显著优势。

关 键 词:遥感  深度卷积神经网络  深度特征  视觉词袋模型  特征融合  高分辨率遥感影像场景分类
本文献已被 CNKI 万方数据 等数据库收录!
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号