首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到16条相似文献,搜索用时 46 毫秒
1.
一种基于随机化视觉词典组和查询扩展的目标检索方法   总被引:1,自引:0,他引:1  
在目标检索领域,当前主流的解决方案是视觉词典法(Bag of Visual Words, BoVW),然而,传统的BoVW方法具有时间效率低、内存消耗大以及视觉单词同义性和歧义性的问题。针对以上问题,该文提出了一种基于随机化视觉词典组和查询扩展的目标检索方法。首先,该方法采用精确欧氏位置敏感哈希(Exact Euclidean Locality Sensitive Hashing, E2LSH)对训练图像库的局部特征点进行聚类,生成一组支持动态扩充的随机化视觉词典组;然后,基于这组词典构建视觉词汇分布直方图和索引文件;最后,引入一种查询扩展策略完成目标检索。实验结果表明,与传统方法相比,该文方法有效地增强了目标对象的可区分性,能够较大地提高目标检索精度,同时,对大规模数据库有较好的适用性。  相似文献   

2.
针对传统的视觉词典法存在的时间复杂度高,视觉单词同义性、歧义性和高维局部特征聚类不稳定问题,提出了一种基于随机化视觉词汇和聚类集成的目标分类方法。采用精确欧式位置敏感哈希(E2LSH)对训练图像库的局部特征点进行哈希映射,生成一组随机化视觉词汇;然后,聚类集成这组随机化视觉词汇,构建随机化视觉词汇集成词典(RVVAD);最后,基于该词典构建图像的视觉单词直方图并使用支持向量机(SVM)分类器完成目标分类。实验结果表明,本文方法有效增强了词典的表达能力,提高了目标分类的准确率。  相似文献   

3.
在目标分类领域,当前主流的目标分类方法是基于视觉词典模型,而时间效率低、视觉单词同义性和歧义性及单词空间信息的缺失等问题严重制约了其分类性能。针对这些问题,该文提出一种基于弱监督的精确位置敏感哈希(E2LSH)和显著图加权的目标分类方法。首先,引入E2LSH算法对训练图像集的特征点聚类生成一组视觉词典,并提出一种弱监督策略对E2LSH中哈希函数的选取进行监督,以降低其随机性,提高视觉词典的区分性。然后,利用GBVS(Graph-Based Visual Saliency)显著度检测算法对图像进行显著度检测,并依据单词所处区域的显著度值为其分配权重;最后,利用显著图加权的视觉语言模型完成目标分类。在数据集Caltech-256和Pascal VOC 2007上的实验结果表明,所提方法能够较好地提高词典生成效率,提高目标表达的分辨能力,其目标分类性能优于当前主流方法。  相似文献   

4.
赵永威  周苑  李弼程  柯圣财 《电子学报》2016,44(9):2181-2188
传统的视觉词典模型(Bag of Visual Words Model,BoVWM)中广泛存在视觉单词同义性和歧义性问题.且视觉词典中的一些噪声单词-“视觉停用词”,也会降低视觉词典的语义分辨能力.针对这些问题,本文提出了基于近义词自适应软分配和卡方模型的图像目标分类方法.首先,该方法利用概率潜在语义分析模型(Probabilistic Latent Semantic Analysis,PLSA)分析图像中视觉单词的语义共生概率,挖掘图像隐藏的语义主题,进而得到语义主题在某一视觉单词上的概率分布;其次,引入K-L散度度量视觉单词间的语义相关性,获取语义相关的近义词;然后,结合自适应软分配策略实现SIFT特征点与若干语义相关的近义词之间的软映射;最后,利用卡方模型滤除“视觉停用词”,重构视觉词汇分布直方图,并采用SVM分类器完成目标分类.实验结果表明,新方法能够有效克服视觉单词同义性和歧义性问题带来的不利影响,增强视觉词典的语义分辨能力,较好地改善了目标分类性能.  相似文献   

5.
刘硕研  须德  冯松鹤  刘镝  裘正定 《电子学报》2010,38(5):1156-1161
基于视觉单词的词包模型表示(Bag-of-Words)算法是目前场景分类中的主流方法.传统的视觉单词是通过无监督聚类图像块的特征向量得到的.针对传统视觉单词生成算法中没有考虑任何语义信息的缺点,本论文提出一种基于上下文语义信息的图像块视觉单词生成算法:首先,本文中使用的上下文语义信息是视觉单词之间的语义共生概率,它是由概率潜在语义分析模型(probabilistic Latent Semantic Analysis)自动分析得到,无需任何人工标注.其次,我们引入Markov随机场理论中类别标记的伪似然度近似的策略,将图像块在特征域的相似性同空间域的上下文语义共生关系有机地结合起来,从而更准确地为图像块定义视觉单词.最后统计视觉单词的出现频率作为图像的场景表示,利用支持向量机分类器完成图像的场景分类任务.实验结果表明,本算法能有效地提高视觉单词的语义准确性,并在此基础上改善场景分类的性能.  相似文献   

6.
7.
传统视觉词典模型没有考虑图像的多尺度和上下文语义共生关系.本文提出一种基于多尺度上下文语义信息的图像场景分类算法.首先,对图像进行多尺度分解,从多个尺度提取不同粒度的视觉信息;其次利用基于密度的自适应选择算法确定最优概率潜在语义分析模型主题数;然后,结合Markov随机场共同挖掘图像块的上下文语义共生信息,得到图像的多尺度直方图表示;最后结合支持向量机实现场景分类.实验结果表明,本文算法能有效利用图像的多尺度和上下文语义信息,提高视觉单词的语义准确性,从而改善场景分类性能.  相似文献   

8.
花卉图像检索是图像检索领域的热门研究方向,高效、快速地检索数据库中的花卉图像一直是该方向的重点课题。为了检索花卉图像,文中设计了一个基于视觉显著模型和CNN的图像哈希算法,并根据此算法设计和开发出一个高效、快速的花卉图像检索软件。软件具有查询花卉类别、检索相似花卉、浏览花卉信息等功能。  相似文献   

9.
邓磊  李海芳 《激光与红外》2022,52(2):295-304
针对现有目标检测网络很难适应复杂战场环境下的超视距、遮挡、多视角变化等干扰的影响,提出了一种基于多金字塔池化模型的整体嵌套卷积网络,该网络通过引入空洞卷积思想,在保证卷积特征分辨率不变的基础上提高弱小目标的检测精度;同时,本文所提的模型也将通过多孔空间金字塔池化将多尺度上下文特征进行融合,然后在整体嵌套卷积基础上利用装...  相似文献   

10.
为了解决传统的CBIR系统中存在的"语义鸿沟"问题,提出一种基于潜在语义索引技术(LSI)和相关反馈技术的图像检索方法.在进行图像检索时,先在HSV空间下提取颜色直方图作为底层视觉特征进行图像检索,然后引入潜在语义索引技术试图将底层特征赋予更高层次的语义含义;并且结合相关反馈技术,通过与用户交互进一步提高检索精度.实验...  相似文献   

11.
提出一种基于差异化融合的语义信息检索算法,并实现模型设计和仿真。构建语义本体模型,提取关联维差异化特征,进行特征融合,采用自顶向下和分治的方法构建差异化语义信息特征的融合模型,求得融合后的差异化语义信息特征信息增益,在语义信息检索本体模型特征空间中,计算语义信息特征,将不同文本分量元素进行初始化倾向性分类处理,基于集中度、分散度和频度构建特征空间,进行信息抽取,对分层差异化特征进行融合处理,实现语义信息检索算法改进。  相似文献   

12.
在分析传统语义相似度计算方法的基础上,综合考虑了边的深度、密度、强度及两个概念的语义重合度、层次差等主要影响因素,提出了一种基于语义树的概念相似度计算方法,并验证了该算法的合理性.  相似文献   

13.
基于视觉感知的图像检索的研究   总被引:2,自引:0,他引:2       下载免费PDF全文
张菁  沈兰荪 《电子学报》2008,36(3):494-499
基于内容图像检索的一个突出问题是图像低层特征与高层语义之间存在的巨大鸿沟.针对相关反馈和感兴趣区检测在弥补语义鸿沟时存在主观性强、耗时的缺点,提出了视觉信息是一种客观反映图像高层语义的新特征,基于视觉信息进行图像检索可以有效减小语义鸿沟;并在总结视觉感知的研究进展和实现方法的基础上,给出了基于视觉感知的图像检索在感兴趣区检测、图像分割、相关反馈和个性化检索四个方面的研究思路.  相似文献   

14.
提出并实现了一个以某特定企业领域的概念化模型——领域本体作为统一语义模型的集成语义检索系统UnionSearch。该系统从领域本体出发,提出并实现了不同类型的企业数据的语义统一查询过程。该企业的应用结果表明此系统能有效解决企业知识的异构问题。  相似文献   

15.
针对Web新闻信息结构和内容特征,在分析了传统的向量空间模型存在不足的基础上,提出了根据特征词进行语义分组的向量空间模型.该模型将一篇新闻报道中的特征词从语义上划分为相对独立的4个组:时间、地点、人物和事件,进而形成了4个向量空间,并对每个向量空间进行特征项权值和相似度的计算.理论分析和实验结果表明,改进后的模型更适应...  相似文献   

16.
基于粒子滤波与多特征融合的视频目标跟踪   总被引:1,自引:4,他引:1  
提出了一种基于粒子滤波和多特征融合的视频目标跟踪方法.以粒子滤波为跟踪框架,根据颜色跟踪中存在的问题提出将颜色与目标运动信息融合,利用融合后的信息确定粒子的权值.利用重采样策略缓解退化现象对粒子滤波的影响.针对2段不同的视频进行了不同算法的仿真与性能的比较,实验结果表明,本文方法在计算量增加不多的情况下大大改善了跟踪的性能与鲁棒性,尤其当目标与背景颜色相近时仍然能够准确地对目标进行跟踪.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号