共查询到10条相似文献,搜索用时 15 毫秒
1.
2.
3.
眼动信息是识别观看视频、浏览网页等以视觉任务为主的行为的关键信息. 针对传统的可穿戴传感器普遍具有侵入性, 而现有基于视觉的眼动仪存在价格昂贵、校准过程复杂等问题, 本文尝试使用单一的标准网络摄像头获取眼动信息用于行为识别, 并评估了该方法的可行性. 提出一种针对低质量视频图像的虹膜跟踪算法以获取眼动信号, 然后分别从水平和垂直方向的眼动信号中提取出五种新的眼动特征, 并从中选择出最优特征子集, 最后采用支持向量机分类器评价了本文方法的可行性. 针对不同应用背景设计了三组验证实验: 留一交叉验证、k折交叉验证及单独校准测试, 三组实验中, 对不同参与者三种行为的平均识别正确率分别为68.4%, 79.3%及84.1%, 证明了基于视频图像的眼动分析用于行为识别是一种很有希望的传感形式, 并有望用于更为复杂的传感任务.
关键词:
物联网
行为识别
眼睛跟踪
传感 相似文献
4.
基于视觉注意模型提取的特征能够反映图像高层语义的新特征,将视觉注意机制引入到图像分析领域能有效地减小语义鸿沟,获得高效的图像检索性能.根据视觉感知的特点,对Itti视觉注意模型进行了改进.采用主分量图表示亮度图,将纹理粗糙度信息融入视觉注意模型,进而提出了一种基于视觉注意空间分布特征的图像检索算法.首先由改进视觉注意模型将图像分解得到38个视觉特征图,然后采用网格平分法提取视觉特征图的空间分布信息,组成特征矢量来多层次地对图像特征进行描述,用于图像检索.实验结果表明,该算法利用基于改进注意力模型方法来提取图像空间分布特征进行图像检索,能获得较高的检索率. 相似文献
5.
基于视觉注意的彩色图像检索方法 总被引:1,自引:1,他引:0
基于视觉注意模型提取的特征能够反映图像高层语义的新特征,将视觉注意机制引入到图像分析领域能有效地减小语义鸿沟,获得高效的图像检索性能.根据视觉感知的特点,对Itti视觉注意模型进行了改进.采用主分量图表示亮度图,将纹理粗糙度信息融入视觉注意模型,进而提出了一种基于视觉注意空间分布特征的图像检索算法.首先由改进视觉注意模型将图像分解得到38个视觉特征图,然后采用网格平分法提取视觉特征图的空间分布信息,组成特征矢量来多层次地对图像特征进行描述,用于图像检索.实验结果表明,该算法利用基于改进注意力模型方法来提取图像空间分布特征进行图像检索,能获得较高的检索率. 相似文献
6.
动态场景下的图像去模糊技术是一个具有挑战性的计算机视觉问题。模糊图像不仅影响主观感受,还会影响后续的智能化分析的性能。提出了一种基于注意力残差编解码网络的动态场景图像去模糊方法。首先,编码阶段采用多个残差模块提取特征,加入空间注意力模块感知模糊的空间位置信息;其次,通过在网络中采用全局-局部残差连接策略融合多层卷积特征,减少信息丢失;最后,解码阶段生成具有清晰边缘结构的复原图像。实验结果显示,提出的算法在公开数据集上获得的峰值信噪比值为31.76 dB,结构相似性值为0.912。客观和主观质量评估表明,本文算法能够有效地复原包含丰富边缘轮廓信息的清晰图像,在对比算法中获得最优的性能。 相似文献
7.
一种基于特征跟踪的视频序列稳像算法 总被引:2,自引:1,他引:1
提出一种基于特征跟踪的视频序列稳像算法.该算法从视频序列的参考帧中提取出一组角点特征,然后在后续帧中基于模糊Kalman滤波进行特征窗跟踪,通过比较各帧图像中特征窗间的对应关系计算出补偿摄像机运动所必需的参数,使用这些参数将后续帧向参考帧对准,从而得到稳定的视频序列.实验结果表明该算法稳像效果好,运算复杂度低,且具有较强的鲁棒性. 相似文献
8.
9.
光谱颜色复现和色度精度是评价光谱重建算法准确的基础。简单而直观的评价指标对颜色复现控制是必不可少。该指标需要同时表征复现颜色的光谱差和色度差。在研究光谱匹配评估的方法基础上,提出基于颜色视觉感知的三种光谱评估指标,通过加权人眼视觉匹配函数,实现颜色光谱差与色度的评估。通过孟塞尔颜色系统的光谱数据,该论文分析与验证三种视觉加权的评估指标的有效性。通过孟塞尔颜色系统数据,这些指标在CIELab均匀色空间中分布均匀而稳定,从而证明加权算法的评估指标是既表征到颜色感知又反映出颜色的光谱相似度。实证结果表明,加权的指标可以实现同时表征实际人眼的颜色感知和颜色光谱差异。基于人眼视觉感知的评估指标解决了颜色的原始光谱和重建光谱的光谱匹配精度的定量评价问题。所提出评价指标通过一个简单而直观的数值实现对复现颜色光谱与色度评估。 相似文献
10.
结合立体视频帧左右视图的灰度图,采用鲁棒性算法与软剪刀算法相结合的"画笔"方案来提取立体视频帧的前景区域,合成视差图并提取水平视差,计算深度视差;根据主观评价结果建立视差深度-视觉舒适度模型,再结合亮度对视觉舒适度的评价模型进行优化,使模型的评分更接近人类视觉系统的评分;结合人类主观评价实验的结果,用逆向代入法求出模型的系数确定模型,最终实现基于人类视觉系统特性的对立体视频视觉舒适度的评价。实验结果表明:通过视觉舒适度模型计算得到的结果与人类主观评价结果之间的误差率不超过5%,其中大部分视频误差率不超过1%。说明评价模型更符合人类主观感知结果的立体视频视觉舒适度,模型评分更接近人类视觉系统特性的主观实验评分,这为立体视频舒适度的评价提供了参考。 相似文献