首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到16条相似文献,搜索用时 191 毫秒
1.
基于视觉熵的视觉注意计算模型   总被引:2,自引:1,他引:1  
提出了一种基于视觉熵的模拟生物视觉信息处理的视觉沣意计算模型,在使用图像的低层特征的基础上,充分考虑了视觉熵中人眼对图像信息的主观量度.该模型首先将图像分成4×4的图像块,分别计算每个图像块的均值、方差、幅度和亮度变化率;采用中央邻域差算子得到各图像的特征图,合并成一个显著图;计算该图中每个显著区域的视觉熵,将最显著Ⅸ域作为视觉注意的焦点,利用人类视觉注意的抑制返回机制,实现视觉注意焦点的转移,从而完成模拟人类视觉注意的整个过程.实验结果表明,该模型基本上能够模拟视觉注意的过程,而且复杂度较低,具有较高的实用价值.  相似文献   

2.
《光学技术》2015,(5):400-403
针对Itti的视觉注意模型不能很好地反应区域的边界和形状问题,提出了一种改进的自底向上(BottomUp)的视觉注意模型。在经典的Itti模型基础上,用小波变换取代了高斯金字塔分解,改进了初始视觉特征的合并策略以得到图像的视觉显著图,结合彩色图像聚类分析方法完成图像的感兴趣区域自动提取。实验结果表明,自动提取的感兴趣区域更符合人眼的实际观察效果,在复杂背景下的提取效果大大优于传统的感兴趣区域提取方法。  相似文献   

3.
 图像关注焦点(FOA)检测是基于人眼视觉关注模型的图像感兴趣区提取的关键技术。为了更加精确、合理地搜索图像关注焦点,提出一种基于双阈值视觉关注模型的FOA检测算法。算法首先提取图像的亮度、颜色、方向和离散矩变换(DMT)特征,生成各个特征对应的特征图;然后将各特征图合并为一张包含多种特征的显著图;最后根据显著图的灰度直方图建立静态阈值与动态阈值,确定图像关注焦点的位置与数量。实验结果表明:新算法在图像关注焦点检测的准确性上较Itti模型有更为优秀的表现,更符合人眼视觉的关注习惯。  相似文献   

4.
基于视觉注意的彩色图像检索方法   总被引:1,自引:1,他引:0  
基于视觉注意模型提取的特征能够反映图像高层语义的新特征,将视觉注意机制引入到图像分析领域能有效地减小语义鸿沟,获得高效的图像检索性能.根据视觉感知的特点,对Itti视觉注意模型进行了改进.采用主分量图表示亮度图,将纹理粗糙度信息融入视觉注意模型,进而提出了一种基于视觉注意空间分布特征的图像检索算法.首先由改进视觉注意模型将图像分解得到38个视觉特征图,然后采用网格平分法提取视觉特征图的空间分布信息,组成特征矢量来多层次地对图像特征进行描述,用于图像检索.实验结果表明,该算法利用基于改进注意力模型方法来提取图像空间分布特征进行图像检索,能获得较高的检索率.  相似文献   

5.
黄传波  金忠 《光子学报》2014,40(7):1025-1030
基于视觉注意模型提取的特征能够反映图像高层语义的新特征,将视觉注意机制引入到图像分析领域能有效地减小语义鸿沟,获得高效的图像检索性能.根据视觉感知的特点,对Itti视觉注意模型进行了改进.采用主分量图表示亮度图,将纹理粗糙度信息融入视觉注意模型,进而提出了一种基于视觉注意空间分布特征的图像检索算法.首先由改进视觉注意模型将图像分解得到38个视觉特征图,然后采用网格平分法提取视觉特征图的空间分布信息,组成特征矢量来多层次地对图像特征进行描述,用于图像检索.实验结果表明,该算法利用基于改进注意力模型方法来提取图像空间分布特征进行图像检索,能获得较高的检索率.  相似文献   

6.
郭健  李向阳  哀薇 《应用声学》2016,24(3):211-213
针对彩色图像的印刷过程中,原图像的色彩分割问题,提出了基于PCA(主成分分析)并结合其它典型彩色图像分割方法的新分割算法。该算法首先利用PCA算法把图像分解为主特征分量和残特征分量两分量图;然后采用二次分水岭算法对残特征分量图进行分割;利用K-Means算法对主特征分量图进行聚类初分割,接着对聚类初分割后的图像进行相似色彩区域融合;最后把分割后的两分量图的进行融合,得到最终的分割结果图。该算法可以应用于彩色印刷图像的色彩自动分割和彩色印刷过程的自动色彩控制中。  相似文献   

7.
柯洪昌  孙宏彬 《中国光学》2015,8(5):768-774
针对传统视觉显著性模型在自顶向下的任务指导和动态信息处理方面的不足,设计并实现了融入运动特征的视觉显著性模型。利用该模型提取了图像的静态特征和动态特征,静态特征的提取在图像的亮度、颜色和方向通道进行,运动特征的提取采用基于多尺度差分的特征提取方法实现,然后各通道分别通过滤波、差分得到显著图,在生成全局显著图时,提出多通道参数估计方法,计算图像感兴趣区域与眼动感兴趣区域的相似度,从而可在图像上准确定位目标位置。针对20组视频图像序列(每组50帧)进行了实验,结果表明:本文算法提取注意焦点即目标区域的平均相似度为0.87,使用本文算法能够根据不同任务情境,选择各特征通道的权重参数,从而可有效提高目标搜索的效率。  相似文献   

8.
针对目前合成孔径雷达(SAR)与可见光图像融合结果目标信息缺失、对比度不高的缺点,提出了一种基于纹理分割和top-hat变换的图像增强融合算法。将SAR图像灰度共生矩阵的熵纹理特征图进行阈值分割,提取SAR图像的感兴趣区域(ROI);并对SAR和可见光图像进行非下采样Contourlet变换(NSCT)分解,低频系数采用基于区域的融合规则,在感兴趣区域内选择SAR的低频系数。对低频系数进行top-hat变换得到显著化的图像亮、暗细节特征,并加入到低频系数上形成低频合成系数;高频子带系数采用局部方向信息熵显著性因子取大的融合规则;对融合系数进行NSCT逆变换得到最终的融合图像。实验证明了本算法的有效性。  相似文献   

9.
视觉注意机制在图像增强中的应用研究   总被引:2,自引:0,他引:2  
将视觉注意机制引入到直方图构造中,并在此基础上提出了一种新的基于灰度级信息量直方图的图像增强算法.该算法利用Itti视觉注意计算模型对图像的显著性进行分析,获得全局显著图;然后,将全局显著图划分为若干等大的子区域,求取各子区域的平均显著值,并做归一化处理,得到子区域的加权统计系数;再将各子区域的灰度级加权统计值相加,得到灰度级信息量直方图;最后,依据直方图均衡化的映射函数,调整灰度级的动态范围.实验结果表明,该算法明显优于经典的GHE算法和AHE算法,具有满意的视觉效果.  相似文献   

10.
方志明  崔荣一  金璟璇 《物理学报》2017,66(10):109501-109501
提出了一种空域和时域相结合的视频显著性检测算法.对单帧图像,受视觉皮层层次化感知特性和Gestalt视觉心理学的启发,提出了一种层次化的静态显著图检测方法.在底层,通过符合生物视觉特性的特征图像(双对立颜色特征及亮度特征图像)的非线性简化模型来合成特征图像,形成多个候选显著区域;在中层,根据矩阵的最小Frobenius-范数(F-范数)性质选取竞争力最强的候选显著区域作为局部显著区域;在高层,利用Gestalt视觉心理学的核心理论,对在中层得到的局部显著区域进行整合,得到具有整体感知的空域显著图.对序列帧图像,基于运动目标在位置、运动幅度和运动方向一致性的假设,对Lucas-Kanade算法检测出的光流点进行二分类,排除噪声点的干扰,并利用光流点的运动幅度来衡量运动目标运动显著性.最后,基于人类视觉对动态信息与静态信息敏感度的差异提出了一种空域和时域显著图融合的通用模型.实验结果表明,该方法能够抑制视频背景中的噪声并且解决了运动目标稀疏等问题,能够较好地从复杂场景中检测出视频中的显著区域.  相似文献   

11.
The differences in texture and motion between man-made object and natural scene are the key features for human biological visual system to detect moving object in scenery. The paper proposed a moving target detection approach based on spatio-temporal perception, which is a crucial function of the visual attention mechanism. The spatial feature including edge, orientation, texture and contrast of the image are extracted, and then the corresponding spatial salient map are constructed by fusing the features through difference of Gaussian (DOG) function, which can suppress the common and enhance the difference of local region. Then, the global motion, local motion and relative motion between continuous images are extracted by means of pyramid multi-resolution, and the moving salient map is constructed after the motion difference between moving target and background is confirmed. Finally, the spatio-temporal salient map is constructed by fusing the spatial salient map and the moving salient map through competition strategy, and the moving target could be detected by searching the maximum in the spatio-temporal salient map. Some experiments are included and the results show that the method can accurately detect the moving target in complex background.  相似文献   

12.
A biologically inspired spatiotemporal saliency attention model based on entropy value is proposed in this paper. This model includes a dynamic attention phase and a static attention phase. In the dynamic attention phase, low-level visual features are extracted from current and some previous frames. Every feature map is resized into some different sizes. The feature maps in same size and same feature for all the frames are used to calculate the entropy value map. All the entropy maps are normalized and are fused into a dynamic saliency map. In the static attention phase, same features are extracted and form multi-scale feature maps by center-surround differences in current frame, and then those feature maps are transformed into conspicuity maps, which are linearly combined into a static saliency map. Our model decides salient regions based on a spatiotemporal saliency map which is generated by integration of the dynamic and the static saliency map. Experimental results indicate that: when there is noise among the frames or there is change of illumination among the frames, our model is excellent to Shi's model and Marat's model; when the moving objects do not belong to the static salient regions, our model is better than Ban's model.  相似文献   

13.
罗辰辉  张伟  沈琼霞  叶波 《应用声学》2017,25(10):259-262
针对传统显著性模型在自然图像的显著性物体检测中存在的缺陷,提出了一种利用背景原型(background prototypes)进行对比的视觉关注模型,以实现显著性物体的检测与提取;传统显著性模型主要通过计算区域中心与四周区域差异性实现显著性检测,而自然场景中显著性区域和背景区域往往都存在较大差异,导致在复杂图像中难以获得理想检测效果;基于背景原型对比度的显著性物体检测方法在图像分割生成的超像素图基础上,选择距离图像中心较远的图像区域作为背景原型区域,通过计算图像中任意区域与这些背景原型区域的颜色对比度准确检测和提取图像中的显著性物体;实验结果表明,基于背景原型对比度的显著性模型可以更好地滤除杂乱背景,产生更稳定、准确的显著图,在准确率、召回率和F-measure等关键性能和直观视觉效果上均优于目前最先进的显著性模型,计算复杂度低,利于应用推广。  相似文献   

14.
Time-resolved contrast-enhanced magnetic resonance angiography (CE-MRA) provides contrast dynamics in the vasculature and allows vessel segmentation based on temporal correlation analysis. Here we present an automated vessel segmentation algorithm including automated generation of regions of interest (ROIs), cross-correlation and pooled sample covariance matrix analysis. The dynamic images are divided into multiple equal-sized regions. In each region, ROIs for artery, vein and background are generated using an iterative thresholding algorithm based on the contrast arrival time map and contrast enhancement map. Region-specific multi-feature cross-correlation analysis and pooled covariance matrix analysis are performed to calculate the Mahalanobis distances (MDs), which are used to automatically separate arteries from veins. This segmentation algorithm is applied to a dual-phase dynamic imaging acquisition scheme where low-resolution time-resolved images are acquired during the dynamic phase followed by high-frequency data acquisition at the steady-state phase. The segmented low-resolution arterial and venous images are then combined with the high-frequency data in k-space and inverse Fourier transformed to form the final segmented arterial and venous images. Results from volunteer and patient studies demonstrate the advantages of this automated vessel segmentation and dual phase data acquisition technique.  相似文献   

15.
Accurate and fast detection of infrared (IR) dim target has very important meaning for infrared precise guidance, early warning, video surveillance, etc. Based on human visual attention mechanisms, an automatic detection algorithm for infrared dim target is presented. After analyzing the characteristics of infrared dim target images, the method firstly designs Difference of Gaussians (DoG) filters to compute the saliency map. Then the salient regions where the potential targets exist in are extracted by searching through the saliency map with a control mechanism of winner-take-all (WTA) competition and inhibition-of-return (IOR). At last, these regions are identified by the characteristics of the dim IR targets, so the true targets are detected, and the spurious objects are rejected. The experiments are performed for some real-life IR images, and the results prove that the proposed method has satisfying detection effectiveness and robustness. Meanwhile, it has high detection efficiency and can be used for real-time detection.  相似文献   

16.
考虑到人眼视觉关注特性在视频质量评价(VQA)中所具有的重要作用,提出了一种结合人眼视觉关注特性的视频质量评价方法。首先利用三维Sobel算子以及恰可察觉失真模型得到全局显著图,对全局显著图的每个显著像素点构建结构张量来求取一帧的全局质量;然后利用视频运动信息以及人眼中心关注特性求得局部显著图来进行感知加权,得到一帧的局部质量;最后均衡局部与全局质量得到视频中一帧的质量,并采用机器学习的方法获得时域加权模型,对视频帧进行加权,从而得到客观视频质量评价值。在LIVE视频数据库上进行性能测试,得到PLCC(Pearson Linear Correlation Coefficient)为0.827,SROCC(Spearman Rank Order Correlation Coefficient)为0.802,与已有相关算法相比,所提出的VQA方法的评价结果更接近人眼的主观感知。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号