首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 93 毫秒
1.
手掌静脉识别典型波长选择   总被引:7,自引:0,他引:7  
吴微  苑玮琦  林森  孔德奇  张洪涛 《光学学报》2012,32(12):1211002
目前的手掌静脉识别系统均采取主动光源来获取掌脉图像,光源波长的选择直接影响掌脉图像的清晰度与识别性能。典型的掌脉识别成像波长为760,850,890,940 nm,但没有指出哪种波长识别性能最佳。从两个角度解决此问题,从识别特征提取角度,建立了基于Fisher判别率的掌脉成像清晰度模型,对4种波长拍摄的掌脉清晰度进行比较;从特征匹配角度,以3种典型的生物特征识别算法对4种波长拍摄的掌脉图像进行识别性能比较。在包含4种波长共2400幅掌脉图像的自建图库中进行实验,模型选择和典型算法实验结果都表明,850 nm优于其他3种波长。证明了850 nm拍摄的掌脉图像的识别性能最佳。  相似文献   

2.
传统的生物特征识别方法直接将用户的生物特征模板存储于数据库中。由于生物特征具有唯一性和稳定性,一旦被窃取,用户的生物特征将终身不可再用。针对此问题提出了一种存储伪生物特征图像的手掌静脉识别算法,该算法不从外部输入密钥,不存储原始掌脉生物特征模板。在注册阶段,于近红外光下采集用户手掌静脉图像,对图像进行加密形成伪图像,将伪图像存储于数据库中;在认证阶段,将数据库中的伪图像解密后提取特征,与认证阶段采集图像提取的特征进行匹配,给出认证结果。在PolyU图库、CASIA图库和自建图库上进行测试,结果表明:在样本数量为300时,该算法在上述3种图库中的等误率分别为0.4135%、0.5576%、0.4744%,识别时间分别为325.0740,316.0800,322.6530ms。在小范围样本内,所提算法适用于安防、考勤等场合,具有一定的实用价值。  相似文献   

3.
小波重构与局部DCT的二维主元分析掌纹识别   总被引:3,自引:2,他引:1  
陈晓华  李春芝  蒋云良 《光子学报》2009,38(6):1566-1571
为了解决掌纹特征提取过程中,手掌的非平面问题导致的伪主线噪音信息并简化运算,对重构的掌纹图像进行了局部离散余弦变换.解决了重构后图像噪音敏感性问题,有效地区分了掌纹主线、掌纹褶纹和乳突纹.由二维主元分析算法获得较稳健的识别特征.通过香港理工大学公布的PolyU掌纹数据库的实验,同二维主元分析算法相比,小波重构与局部离散余弦变换的2DPCA掌纹识别算法正确识别率较高,识别效率较高.  相似文献   

4.
生物特征识别在信息安全领域发挥着重要作用,掌纹识别作为一种新型生物特征识别方式,具有低失真、非侵入性和高唯一性等优势。传统掌纹研究大多使用自然光成像系统以灰度格式获取,识别精度很难进一步提升。为了获得更多的身份鉴别信息,提出利用多光谱掌纹图像代替自然光掌纹图像。针对现有掌纹识别算法由于没有考虑到不同光谱的特性而导致纹理细节丢失,识别精准率低的问题,提出了一种基于多光谱图像融合的掌纹识别算法。该方法通过对不同光谱下的掌纹图像进行快速自适应二维经验模式分解(FABEMD),将多光谱掌纹图像分解成一系列频率由高到低的二维固有模态函数(BIMF)和一个残余分量,残余分量可被视为该光谱图像低频信息的初步估计。图像采集过程中光照条件很难保持稳定,而近红外光谱图像在进行FABEMD分解时对光照变换敏感,容易导致分解后的BIMF背景信息过于冗余;因此对分解后的近红外掌纹图像进行背景重建及特征细化,在对背景冗余信息进行平滑处理的同时可以有效增强高频信息的特征表达。为避免直接融合处理后引发的图像过度曝光问题,提出对近红外特征压缩后再融合。此外,提出了一种结合了注意力机制的改进残差网络(IRCANet),用于融合后的掌纹图像分类,在网络中引入分阶段残差结构,缓解了网络的退化问题,在学习过程中有效地减少信息丢失,对于融合后的多光谱掌纹图像,分阶段残差结构能够稳定地将图像信息在网络间传输,但对图像中的高低频信息区分效果不够显著,为了使网络关注更多区分性特征,利用特征通道间的相互依赖性,在分阶段残差结构中结合了通道注意力(Channel Attention)机制。最终,在香港理工大学(PolyU)多光谱掌纹数据集上进行的综合实验表明,该方法可以取得良好的效果,算法识别准确率能达到99.67%且具有良好的实时性。  相似文献   

5.
袁春晓  孙强 《中国光学》2011,4(2):182-187
为了获得高分辨率、高对比度和低畸变的掌纹图像,同时实现系统的轻量化和高性价比,本文基于全反射原理,采用树脂材料设计了一款由6片镜构成双远心光路的掌纹采集光学系统。树脂材料的选用减轻了光学系统的总重量;基于光的全反射原理的系统设计增强了掌纹图像的对比度;选择双远心光学结构,便于对倾斜物面所产生的梯形畸变进行矫正。对所设计光学系统的成像质量分析表明,该系统所有视场的光学传递函数(MTF)在Nyquist频率228 lp/mm处均达0.55以上,畸变〈0.14%。设计的光学系统可以采集120 mm×160 mm的手掌区域,实际手掌面上的分辨率达到500dpi,采集的掌纹图像分辨率达到8.0×106 pixel,满足了实际采集的要求。  相似文献   

6.
苑玮琦  曲晓峰  柯丽  黄静 《光学学报》2008,28(10):1903-1909
主成分分析(PCA)法在掌纹识别方面可以取得较好的效果.但是随着掌纹图像库的扩大,PCA转换矩阵训练时间迅速增长;注册新掌纹时,需要重新训练PCA转换矩阵.添加注册掌纹的代价随着掌纹库的增大迅速增加.如何能够在保持PCA识别效果的情况下提高使用的便捷性成为PCA广泛应用的主要障碍.提出了一种以PCA重建误差为分类依据的PCA重建误差学纹识别方法.该方法与PCA法基于相同的原理,在采用最近邻分类器时可以取得与PCA法相等的性能;同时可以有效减少掌纹图像库的识别时间,可以以极少的代价扩展掌纹库.  相似文献   

7.
提出一种具有信息丰富、稳定性强、低分辨率可采集等特征的掌纹纹理识别方法。该方法首先从6个方向计算掌纹图像每点的相位一致性,把该点相位一致性最大值对应的方向作为对数Gabor滤波器的方向,在此方向上用对数Gabor滤波器提取相位信息,并利用实部和虚部进行量化和编码掌纹相位象限码,码长为256字节。对100个手掌类,共1000幅掌纹图像的数据库进行实验,在给定阈值的情况下,识别率能达到99.95%左右。把实验结果与典型的基于掌纹纹理特征的识别算法进行比较,表明该方法正确识别率高。  相似文献   

8.
人体动作的识别与理解是人机交互、机器人应用的关键技术之一,为了提高人体各种复杂动作的识别精度与鲁棒性,研究了基于复杂性度量与多尺度运动编码的动作识别技术。通过不同长度的滑动窗口对视频序列获取子序列;通过时间序列复杂性来度量人体运动轨迹,设计了一种多尺度的滑动窗口,从而选择出有效子序列;基于有效子序列,引入k-均值聚类分析算法,对人体运动进行编码,获取运动编码直方图;引入条件随机场对动作分类学习,完成动作识别与理解。所提出的算法在人机交互、智能家居、视频监控等领域具有较好的参考价值。  相似文献   

9.
针对H.264压缩域内运动目标分割算法所存在的弱自适应性和抗噪能力差等问题,本文提出了一种基于脉冲耦合神经网络的压缩域运动目标分割方法.该方法采用时空域矢量均值滤波对运动矢量进行预处理,减少运动目标丢失率,并设计了前后向矢量累积方法,增强运动矢量的可靠性.基于脉冲耦合神经网络设计的融合模型可以将累积后的运动矢量和宏块模式进行融合处理,增强分割算法的抗噪能力,保证加快分割速度的同时兼顾运动区域的分割准确度.另外,采用最小交叉熵作为点火终止判断条件,实现了最佳分割模板的自适应获取.仿真实验表明,本文算法在自适应性和抗噪能力方面均有较好表现,可以准确分割出监控视频中的运动目标.  相似文献   

10.
针对H.264压缩域内运动目标分割算法所存在的弱自适应性和抗噪能力差等问题,本文提出了一种基于脉冲耦合神经网络的压缩域运动目标分割方法.该方法采用时空域矢量均值滤波对运动矢量进行预处理,减少运动目标丢失率,并设计了前后向矢量累积方法,增强运动矢量的可靠性.基于脉冲耦合神经网络设计的融合模型可以将累积后的运动矢量和宏块模式进行融合处理,增强分割算法的抗噪能力,保证加快分割速度的同时兼顾运动区域的分割准确度.另外,采用最小交叉熵作为点火终止判断条件,实现了最佳分割模板的自适应获取.仿真实验表明,本文算法在自适应性和抗噪能力方面均有较好表现,可以准确分割出监控视频中的运动目标.  相似文献   

11.
运动声源声场的可视化是一种重要的运动声源定位的技术手段,利用双目视觉测量技术实现运动声源声场空间的自动测量,自动确定运动声源表面的空间位置,针对声源表面,利用传声器阵列,基于声全息方法实现运动声源声场的重建,建立视频图像与声场的空间映射,并建立视频与声场之间的时序,实现实景视频图像与声场重建结果的融合,可以自动生成声源运动过程的视频。基于该方法所开发了一套试验测量系统,对运动声源的测量试验结果表明,该方法可以有效实现运动声源的视频可视化,使人可以直接从视频中看到声源及其变化过程,使声源的定位和识别变得更加简单。   相似文献   

12.
李艳荻  徐熙平 《光学学报》2019,39(1):307-314
提出一种基于超像素时空特征的视频显著性检测方法。所提方法可对图像进行超像素分割,提取颜色梯度和运动梯度特征,以构建超像素级时空梯度图。用平均加权测地距离来衡量时空梯度图上每一个超像素相对于其邻域的时空显著程度,形成时空显著图。根据时间域上目标运动的连续性,并借助熵的概念来表征运动模式的一致程度,构建运动一致性图。融合时空显著图和运动一致性图,通过自适应阈值处理定位运动目标。实验从可视化分析和定量评估两个方面将所提方法与其他算法进行对比,结果表明所提方法具有较强的抗环境干扰能力,适用于背景纹理复杂或环境随机变化的视频中运动目标的检测,其检测准确率高达92%。  相似文献   

13.
针对现有手掌静脉认证系统误拒率较高以及不支持大数据集匹配的问题,设计了基于透射式光源的双目视觉静脉三维点云重建装置,提出了基于三维点云匹配的手掌静脉认证算法。系统使用850 nm透射式发光二极管(LED)光源作为照明装置,由双目摄像机拍摄静脉视差图像进行三维重建。选择手掌静脉作为特征点描述其空间三维结构,提出了一种改进的内核相关性分析方法匹配三维点云。针对200组点云数据的实验结果验证了该方法的可行性和有效性,识别率达到了98%,误拒率2%,误识率0%,总特征维数约8000至12000维,高于尺度不变特征变换(SIFT),支持对大数据集的认证识别。  相似文献   

14.
针对单一红外或可见光波段成像技术无法满足夜雾天况彩色成像要求的问题,结合红外和可见光成像各自的特点,提出一种固定区域下针对夜雾天况的彩色视频构建方法。该方法在能见度高的白天利用可见光传感器进行可见光背景图像的构建,在能见度低的夜雾天气利用红外传感器提取出红外运动目标,依据可见光背景图像与原始红外图像的配准参数进行2幅图像的同比例融合,完成彩色视频的重构。实验结果表明,该方法能够准确完成包含红外目标的彩色视频构建,充分体现出夜雾天况下运动目标及其所在场景的彩色特征信息,提升人眼对目标与场景的识别和感知。对于图像大小为720pixel×576pixel的视频序列,该算法的运行速度能够达到40frame/s,可满足彩色视频实时构建的需要。  相似文献   

15.
针对红外视频人体行为识别问题,提出了一种基于时空双流卷积神经网络的红外人体行为识别方法。通过将整个红外视频进行平均分段,然后将每一段视频中随机抽取的红外图像和对应的光流图像输入空间卷积神经网络,空间卷积神经网络通过融合光流信息可以有效地学习到红外图像中真正发生运动的空间信息,再将每一小段的识别结果进行融合得到空间网络结果。同时将每一段视频中随机抽取的光流图像序列输入时间卷积神经网络,融合每一小段的结果后得到时间网络结果。最后再将空间网络结果和时间网络结果进行加权求和,从而得到最终的视频分类结果。实验中,采用此方法对包含23种红外行为动作类别的红外视频数据集上的动作进行识别,正确识别率为92.0%。结果表明,该算法可以有效地对红外视频行为进行准确识别。  相似文献   

16.
胡波 《光子学报》2014,(4):461-465
设计了一套嵌入式平台上实现的视频目标跟踪系统.该系统采用CMOS图像传感器获取视频信号,利用Z228多媒体芯片自带的ARM9处理器完成视频信号的控制,并通过MPEG-4硬件编码器实现视频信号的压缩.用Mean Shift算法跟踪运动目标,针对其收敛的局限性设置多个搜索点来提高其跟踪效果.通过减少采样点和标记已计算点来提高代码运行速度,增强了跟踪的实时性.实验结果表明,本系统能以27 fps速率连续稳定地实现视频目标的跟踪.  相似文献   

17.
基于改进Mean Shift算法的实时视频目标跟踪   总被引:1,自引:0,他引:1  
胡波 《光子学报》2012,41(4):461-465
设计了一套嵌入式平台上实现的视频目标跟踪系统.该系统采用CMOS图像传感器获取视频信号,利用Z228多媒体芯片自带的ARM9处理器完成视频信号的控制,并通过MPEG-4硬件编码器实现视频信号的压缩.用Mean Shift算法跟踪运动目标,针对其收敛的局限性设置多个搜索点来提高其跟踪效果.通过减少采样点和标记已计算点来提高代码运行速度,增强了跟踪的实时性.实验结果表明,本系统能以27 fps速率连续稳定地实现视频目标的跟踪.  相似文献   

18.
为有效利用行为视频的长时时域信息,提高行为识别准确率,提出一种结合有序光流图和双流卷积神经网络的行为识别算法。首先利用Rank支持向量机(SVM)算法将连续光流序列压缩总结成单幅有序光流图,实现对视频长时时域结构的建模;然后设计一个包含表观和短时运动流与长时运动流的双流卷积网络,分别以堆叠RGB帧、有序光流图为输入提取视频的表观和短时运动信息与长时运动信息;最后将双流网络的C3D描述子和VGG描述子融合后输入线性SVM进行行为识别。在HMDB51和UCF101两个数据集的实验结果表明,该算法能够有效利用空域表观信息和时域运动信息,具有较高的行为视频识别准确率。  相似文献   

19.
尹新富  袁雪霞 《应用声学》2015,23(5):1522-1524
针对车辆行驶中驾驶员视觉盲区或注意力不集中而造成的交通事故问题,提出采用智能视觉技术对车辆行驶过程中四周的异常物体进行视频监控,对动态视频场景中的运动目标进行检测、识别与实时测距,通过车辆智能视频监控系统最大程度的为驾驶员提供更多预警信息,预防交通事故的发生。本文介绍了车辆智能视觉监控系统的硬件设计方法与软件工作流程,并研究了运动目标检测算法与单目视觉测距算法,通过仿真实验,验证了本智能视觉车辆监控系统对于运动目标进行检测、识别与智能测距判断的实验结果。  相似文献   

20.
考虑到人眼视觉关注特性在视频质量评价(VQA)中所具有的重要作用,提出了一种结合人眼视觉关注特性的视频质量评价方法。首先利用三维Sobel算子以及恰可察觉失真模型得到全局显著图,对全局显著图的每个显著像素点构建结构张量来求取一帧的全局质量;然后利用视频运动信息以及人眼中心关注特性求得局部显著图来进行感知加权,得到一帧的局部质量;最后均衡局部与全局质量得到视频中一帧的质量,并采用机器学习的方法获得时域加权模型,对视频帧进行加权,从而得到客观视频质量评价值。在LIVE视频数据库上进行性能测试,得到PLCC(Pearson Linear Correlation Coefficient)为0.827,SROCC(Spearman Rank Order Correlation Coefficient)为0.802,与已有相关算法相比,所提出的VQA方法的评价结果更接近人眼的主观感知。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号