共查询到18条相似文献,搜索用时 140 毫秒
1.
基于柯西分布的视频图像序列背景建模和运动目标检测 总被引:7,自引:3,他引:4
提出了一种用于视觉监视系统的基于柯西分布的发光模型的光照不变变化检测方法.假定视频图像序列中每个背景图像像素点灰度观测值的时序变化由白噪声引起,利用建立的初始化背景高斯统计模型对每帧图像进行归一化,得到了背景像灰度比值的分布符合标准柯西分布的结论,解决了柯西分布的模型参量估计问题.在变化检测的基础上,YCbCr颜色空间的亮度、色调和饱和度被用来识别和消除由阴影和反光等引起的变化区域.结果表明,提出的背景建模方法对场景中各种光线变化、小的背景扰动等噪声具有稳健性,可以较为可靠地检测前景目标,识别和去除阴影和反光. 相似文献
2.
3.
4.
5.
针对某些光照变化、噪声不稳定等多模态场景不适合离线训练背景模型来提取目标信息的问题,在基于混合高斯的背景建模的基础上,利用帧间差分与邻域相似性实现模型初始参数的选取;提出将随机子采样与邻域空间传播理论相结合改进参数更新过程;在时间维度上建立观测向量,实现模型参数的优化,加快模型收敛速度;并将颜色信息和梯度相融合实现基于多特征的多通道背景模型的建立,采用背景点的随机采样策略简化多通道模型建立的计算量,最终实现复杂环境下的运动目标的检测.实验表明,算法在抑制鬼影、动态背景和遮挡等方面有良好的检测性能,且执行效率能够满足实时计算的需求. 相似文献
6.
高斯混合模型被广泛应用于统计压缩感知中信号先验概率分布的建模.利用高斯混合模型对图像的概率分布进行建模时,通常需要先对图像分块,再对图像块的概率分布进行建模.本文提出卷积高斯混合模型对整幅图像的概率分布进行建模.通过期望极大化算法求解极大边缘似然估计,实现模型中未知参数的估计.此外,考虑到在整幅图像上计算的复杂度较高,本文在卷积高斯混合模型和压缩测量模型中引入循环卷积,所有的训练和恢复过程都可以利用二维快速傅里叶变换实现快速运算.仿真实验表明,本文所提的MMLEconvGMM算法的恢复性能要优于传统的压缩感知算法的恢复性能. 相似文献
7.
为在足球视频中有效的检测与跟踪运动目标,需要对足球比赛视频中目标检测与跟踪算法进行研究。当前采用的算法,在动态场景中,存在运动目标检测与跟踪效果不佳的问题。为此,提出一种基于OpenCV的足球比赛视频中目标检测与跟踪算法。该算法结合平均背景算法将足球比赛视频中目标图像分割为前景区与背景区,计算足球比赛视频每一帧目标图像和背景图像之间差值的绝对差值,同时计算每一个目标图像中像素点的平均值与标准值来建立目标图像背景统计模型,利用TMHI算法对足球比赛视频中目标初始图像进行阈值分割,得到初始分割图像,对分割图像进行中值滤波和闭运算,再使用卡尔曼滤波对分割后的目标图像进行处理,得到镜头中目标的质心位置和目标外界矩形框,然后对足球比赛视频中目标进行跟踪。实验证明,该算法有效的检测与跟踪足球视频中运动目标。 相似文献
8.
9.
10.
针对视频图像易受噪声干扰和背景变化复杂的特点,改进传统Census变换特征值对中心像素的依赖问题,建立Census模板以保持Census变换对光线变化的稳健性。将改进后的Census变换特征值、图像像素值、更新频数、最近更新时间和动态指数等多种特征融合,建立了一种新的背景建模算法。利用帧间亮度差,自适应选择融合多种特征更新背景模型,依据动态指数衡量背景变化复杂程度,建立不同的更新规则,提升模型对光线突变和复杂场景处理的稳定性。经测试多组标准视频序列,本算法检测精度优于其他算法,有效改善了光线突变对前景目标提取的影响,提高了对光线突变和复杂场景的稳健性,减少了运动目标的孔洞和像素漂移产生的假前景。 相似文献
11.
针对Retinex理论的低照度图像增强算法中光照图像估计问题,提出一种基于YCbCr颜色空间的低照度图像增强方法.该方法将原始低照度图像从RGB(Red Green Blue)颜色空间转换到YCbCr颜色空间,提取该空间中Y分量构建为原始光照图像分量L1(x,y),并对L1(x,y)进行Gamma校正得到增强的光照图像分量L2(x,y),经Retinex模型得到增强图像R(x,y),采用多尺度细节增强方法对图像R(x,y)进行细节增强,得到最终增强图像Re(x,y).实验结果表明,所提方法不仅能有效提升亮度,避免亮度和色彩失真,增强了图像的细节信息并获得了更好的视觉效果,而且运行速度快. 相似文献
12.
《Optik》2014,125(24):7222-7226
Salient object detection is an important and challenging problem in computer vision. In this paper, we present a model of salient region detection based on the fusion of contrast and distribution, computed by two-directional 2DPCA analysis of image patches under the combination of RGB space, LAB space and YCbCr space. First, non-overlap patches of three layers from the image are obtained in the three color spaces respectively and stacked for the combination of the three sapces in a single layer. For every layer, two-directional, two-dimensional PCA are utilized to realize automatic selection of effective features, then based on the high contrast and compact character of salient object, contrast values and distribution values of image patches are fused to get the saliency map. Finally, three saliency maps for three layers are combined to detect salient object. The experimental results on a publicly available database show that the proposed algorithm performs well and are in line with the human eye observation results. 相似文献
13.
背景高斯化的遥感图像目标检测 总被引:1,自引:0,他引:1
在假设单一地表遥感图像灰度起伏符合马尔可夫模型的条件下,得到了理想单一地表灰度起伏符合高斯分布的结果。将这一结果应用于遥感图像的目标检测,提出了一种新的基于背景高斯化的遥感图像目标检测方法。该方法首先将遥感图像进行高斯化处理,将其作为近似理想背景,然后将原图像与高斯化背景做差得到残差图,进而对残差图进行目标检测。由于目标本身的信息远离背景高斯化模型,因此在背景消减的过程中,目标信息得到了很好的保持,比在原图上进行目标检测性能得到了很大的提高。实验结果进一步验证了算法具有很好的检测性能。 相似文献
14.
Jung-Hwan Ko 《Optics Communications》2006,266(1):67-79
In this paper, a novel stereoscopic video surveillance system to track a target person and detect its three-dimensional (3D) location coordinates and moving trajectory is implemented by using the pan/tilt-controlled stereo camera system. Stereoscopic video images of a target person are captured with stereo camera system and the target face and its location in the left image plane can be detected by use of YCbCr color model and centroid method. Also the target location in the right image plane can be obtained through correlation between the left face image and the right image by using the binary phase extraction joint transform correlator (BPEJTC) algorithm. With these location data of the target face in the left and right image planes the pan/tilt systems can control the stereo camera to track a target person by positioning the target face at the center of the camera’s FOV and making the focusing points of the right and left camera coincided on the target face. And then, with the resultant pan/tilt angles and geometric parameters of the stereo camera system, the target’s real 3D location coordinates and moving trajectory in the world space can be obtained. From some experiments with 900 frames of stereoscopic video image pairs, it is analyzed that the target’s center location after being tracked is kept to be very low error ratio of 0.62%, 2.04% on the average in the x, y directions of the image plane, respectively. Also, the error ratio between the calculated and measured values of the 3D location coordinates of a target person is found to be very low value of 2.1%, 5.7% on the average in the X and Y directions of the real world space, respectively. 相似文献
15.
提出了一种空域和时域相结合的视频显著性检测算法.对单帧图像,受视觉皮层层次化感知特性和Gestalt视觉心理学的启发,提出了一种层次化的静态显著图检测方法.在底层,通过符合生物视觉特性的特征图像(双对立颜色特征及亮度特征图像)的非线性简化模型来合成特征图像,形成多个候选显著区域;在中层,根据矩阵的最小Frobenius-范数(F-范数)性质选取竞争力最强的候选显著区域作为局部显著区域;在高层,利用Gestalt视觉心理学的核心理论,对在中层得到的局部显著区域进行整合,得到具有整体感知的空域显著图.对序列帧图像,基于运动目标在位置、运动幅度和运动方向一致性的假设,对Lucas-Kanade算法检测出的光流点进行二分类,排除噪声点的干扰,并利用光流点的运动幅度来衡量运动目标运动显著性.最后,基于人类视觉对动态信息与静态信息敏感度的差异提出了一种空域和时域显著图融合的通用模型.实验结果表明,该方法能够抑制视频背景中的噪声并且解决了运动目标稀疏等问题,能够较好地从复杂场景中检测出视频中的显著区域. 相似文献
16.
多特征融合匹配的多目标跟踪 总被引:3,自引:0,他引:3
针对复杂背景的视频图像多目标跟踪遮挡问题,提出了一种多特征融合匹配的多目标跟踪方法。基于自适应高斯混合背景模型重构和更新背景策略,实现当前帧背景减除和多目标检测;采用目标的颜色特征、质心位置、运动速度等特征进行融合匹配跟踪;最后,通过区域辅助判定策略将场景下的目标状态分为目标进入场景、目标退出场景、目标暂消、目标重现、目标融合和分裂5种状态,用质心预测方法和遮挡因子辅助匹配来提高匹配正确率。仿真实验结果表明:采用该方法跟踪同一目标和不同目标的相似度平均值分别为0.949 71和0.505 73,优于单一颜色特征信息匹配;目标遮挡结束后重新匹配相似度为0.972 83,实现了复杂背景下具有表面相似性的多目标实时跟踪。 相似文献
17.
为提高微光夜视图像质量,提出一种基于图像分割和局部亮度调整的颜色传递算法。用简单线性迭代聚类结合K均值聚类对微光图像进行分割,在YCbCr颜色空间中利用子区域与参考图像每一个像素点上亮度的一致性,将匹配参考图像的颜色分量传递到目标图像的子区域,以目标图像纹理特征中对比度的值作为系数,调整目标图像子区域的亮度值,进行颜色空间转换并显示颜色传递结果。搭建了微光图像成像系统,进行了微光图像分割及完成了微光图像的颜色传递。结果表明,改进的分割算法将图像中不同的景物分割出来,得到的彩色微光图像的峰值信噪均值达到12.048 dB,比Welsh算法平均提高2.63 dB。 相似文献
18.
Singular Spectrum Analysis for Background Initialization with Spatio-Temporal RGB Color Channel Data
In video processing, background initialization aims to obtain a scene without foreground objects. Recently, the background initialization problem has attracted the attention of researchers because of its real-world applications, such as video segmentation, computational photography, video surveillance, etc. However, the background initialization problem is still challenging because of the complex variations in illumination, intermittent motion, camera jitter, shadow, etc. This paper proposes a novel and effective background initialization method using singular spectrum analysis. Firstly, we extract the video’s color frames and split them into RGB color channels. Next, RGB color channels of the video are saved as color channel spatio-temporal data. After decomposing the color channel spatio-temporal data by singular spectrum analysis, we obtain the stable and dynamic components using different eigentriple groups. Our study indicates that the stable component contains a background image and the dynamic component includes the foreground image. Finally, the color background image is reconstructed by merging RGB color channel images obtained by reshaping the stable component data. Experimental results on the public scene background initialization databases show that our proposed method achieves a good color background image compared with state-of-the-art methods. 相似文献