首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 46 毫秒
1.
基于视觉导航系统的标志识别方法   总被引:1,自引:0,他引:1  
探讨了基于视觉导航系统的标志识别方法。采用基于特征分类的方法对标志进行识别,适用于变化的环境,能有效排除由于光源所引起的各种干扰,处理速度快,满足自引导车实时和导航的需要。  相似文献   

2.
探讨了基于视觉导航系统的标志识别方法 .采用基于特征分类的方法对标志进行识别 ,适用于变化的环境 ,能有效排除由于光源所引起的各种干扰 ,处理速度快 ,满足自引导车实时跟踪和导航的需要 .  相似文献   

3.
阐述了符号、视觉符号、视觉传达设计的概念及视觉符号与视觉传达设计的关系.  相似文献   

4.
视觉符号作为独特的文化载体非常重要.视觉符号作为意义传达、思想交流的语言和符号,有两组基础概念需要确立,即语言/言语、能指/所指.视觉经验则是视觉符号产生、解读和交流的基础.无论是现实主义、抽象主义或现代艺术都与视觉经验有着不可分割的关系.  相似文献   

5.
本文从视觉思维的角度出发,论述了在现代广告传播中视觉符号的重要作用,强调了符号作为信息载体在视觉传播中不可替代的地位.并对广告传播中的视觉特性作了说明。  相似文献   

6.
提出了基于最小误差分割原理的石块图像分割方法。在获取分割后的二值化图像中,采用了形态学滤波算子进行去噪,然后利用二值图像投影变换,并参考石块底部阴影位置信息,辅助完成对部分场景下的石块识别和定位。  相似文献   

7.
手写数学符号的基元识别方法   总被引:4,自引:2,他引:2  
对手写数学字符的联机识别进行了研究。首先分析了94个常用数学符号的结构,指出这些符号均由10个基本结构元组成,其次抽取数学符号的三个重要特征:基元矢量、基元之间的位置关系和基元长度矢量并采用了一种基元排序法,同时考虑匹配值和不匹配值以及增加几何约束改进了传统的动态规划匹配方法,并用改进的Kuhn-Munkres算法求最佳匹配。在对20人无限制书写的数学符号的识别试验中,正确识别率为92.52%,误  相似文献   

8.
针对品牌服装产品设计中视觉符号的特殊性,并结合具体的案例分析服装文化产业和视觉形象的相互关系.企业和机构采用符号、标识的方式表达自己的名字和行业规范的特点,定义自己的视觉形象,创建其品牌的认知度.随着品牌文化产业的持续成长,形象设计在全球将继续面对挑战,并以此引发革新并寻求到解决的办法.  相似文献   

9.
在对运动易损动作进行识别时,一直由于无法克服外界条件带来的影响,存在识别精度低、误差大的问题。提出基于三维视觉的运动易损动作识别方法,对运动动作的三维视觉空间进行三维梯度值求解,获取三维视觉梯度直方图特征;并进行降维出来,得到低维隐空间下的运动模型,在此基础上,对其进行序列映射,求出测试序列与训练序列的吻合度。通过匹配计算,获取匹配度,实现运动易损动作的识别。实验结果表明,所提方法具有很高的识别精度,所需时间较短,识别性能高。  相似文献   

10.
 基于计算机的植物自动识别是植物识别分类学的发展趋势,本文提出了一种基于植物叶片图像的植物自动识别方法。该方法在对叶片图像进行亮度校正、中值滤波和阈值分割等预处理后,计算植物叶片的偏心率、圆形性、圆形度指标、方向角、最小矩形宽轴/长轴、最佳椭圆短轴/长轴6个形状特征参数和植物叶片的二阶矩、对比度、相关、熵、逆差矩5个纹理特征参数,再使用径向基人工神经网络设计了植物自动识别的分类器。通过对3种植物的60个叶片图像进行实验,仅用植物叶片形状特征进行植物识别的平均正确识别率为70.83%,利用植物叶片形状特征和纹理特征进行植物自动识别的平均正确识别率为83.3%,并得到了径向基人工神经网络的参数。实验结果表明,植物叶片图像的纹理特征能够提高植物自动识别的平均正确率,基于植物叶片图像的植物自动识别是切实可行的,研究成果为深入研究植物自动识别分类系统奠定了一定的理论基础。  相似文献   

11.
针对复杂的室内环境,提出一种新的动态环境下的移动机器人视觉导航方法.该方法以室内常见物体作为自然路标,通过单目视觉建立识别模型来认知环境中的各种物体.首先对室内常见物体建立图像库,并对库中的大量图像采集SIFT特征;然后通过BoW模型来描述各幅图像,针对每类物体利用线性支持向量机(SVM)训练出物体识别模型;最后借助交互的手绘地图描述室内环境,移动机器人从中获得辅助路径以及自然路标的大概位置,从而完成导航任务.通过大量实验,从自然路标变化、目的区域变化、手绘地图偏差等多角度验证该方法的鲁棒性.实验结果表明,该导航方法操作简单高效,并具有人机交互性强、动态环境下适应能力高的优点.  相似文献   

12.
本文提出了一种基于综合特征的鞋底识别方法,即提取鞋底的形状、直方图、纹理特征,将这些特征进行内部和外部归一化形成鞋底图像的综合特征.实验结果表明根据鞋底图像综合特征进行识别是很有效的.  相似文献   

13.
针对视点、外观等因素变化给地点识别应用带来的不利影响,设计了1种基于显著路标及深度特征的地点识别方法.首先分割图像中的显著物体作为候选路标;然后设计YOLOv3算法网络,对候选路标进行识别,以删除不适合环境建模的特定对象类型;最后在图像相似度测量中,利用中层卷积层的性能特点,提取候选路标的卷积神经网络(convolutional neural networks,CNN)特征,并结合降维操作,提升匹配效率.在3个具有挑战性的公开数据集上进行了试验,与FAB-MAP、SeqSLAM和Place-CNN等先进方法进行了比较,该方法的平均识别精度达到71.22%,优于其他3种方法,表明经过筛选的显著路标的CNN特征可以抵御强烈的视点和外观变化.  相似文献   

14.
一种基于轮廓特征的运动目标识别方法   总被引:2,自引:0,他引:2  
针对视频图像中形状匹配的局限性,即当待检测物体出现平移、旋转变化时识别目标需要很长的计算时间,提出了一种基于轮廓特征的运动目标识别方法.首先获取能自动更新的背景图像,采用背景减法提取运动目标的轮廓,然后运用其轮廓的边界不变矩特征和形态学特征,构建一个轮廓特征向量的模型,再分析比较待测运动目标轮廓特征向量与每类标准样本之间的欧氏距离,实现对运动目标的识别分类. 试验结果表明,该方法具有识别精度高、计算量小、实时性好的特点.  相似文献   

15.
针对现有行为识别算法在红外视频中表现不佳的问题,提出一种基于双通道特征自适应融合的红外行为识别算法.在该方法中,2个通道提取的特征分别是改进的密集轨迹特征和光流卷积神经网络特征.改进的密集轨迹特征是在原始密集轨迹特征中加入灰度值权重,强调红外视频的成像特征;光流卷积神经网络特征是在原始视频对应的光流图序列中提取的,该特征具有较强的全局描述能力.通过自适应融合模型将2个通道特征的概率输出进行自适应融合,得到最终识别结果.实验结果表明,在现有红外行为识别数据集上,该算法有效地提高了识别准确率.  相似文献   

16.
基于多元图图形几何特征的模式识别新方法   总被引:1,自引:1,他引:0  
在简要比较统计模式识别和句法模式识别优缺点的基础上,进一步介绍了模式识别研究领域中的表示问题和基于几何特征的模式识别方法研究现状,并提出了具有探索性意义的基于多元图图形几何特征可视化模式识别新问题.  相似文献   

17.
基于足迹压力数据提出一种基于多模特征足迹识别算法.该算法采用连通区域滤波法实现足迹压力数据的去噪,对去噪后的数据提取足迹图像的形态特征、压力特征及卷积特征,并基于各特征权重实现足迹多特征的优化融合,最后采用支持向量机(SVM)分类器进行分类识别.实验结果表明:在50人的足迹压力数据上,三类不同模态足迹的识别准确率分别达到了100%,99.925%和94.445%,相较于仅采用形态特征和压力特征的识别,所提出算法的平均识别率提高了10.285%,表明该识别算法能够有效进行足迹识别.  相似文献   

18.
提出一种基于文字结构特征的神经网络手写汉字识别策略 ,根据所提取的文字笔画方向、基本轮廓和交叉点等特征 ,采用基于自组织神经网络的模式聚类该方法完成正规手写文字的识别 .该方法提取的笔画轮廓十分准确有效 ,对手写汉字的约束少 ,可识别的汉字数量大 ,在仿真实验中有效地识别了绝大多数手写汉字  相似文献   

19.
基于局部特征的部分遮挡人耳识别   总被引:2,自引:0,他引:2  
通过对人耳受到部分遮挡时识别的研究,提出了一种基于局部特征的部分遮挡人耳识别方法,即首先利用Gabor小波对人耳图像进行特征提取,由于该特征维数较高,再使用核Fisher判别分析(KFDA)方法进行有效降维后用于人耳识别.在逐步分析人耳各个子区域的鉴别能力的基础上,提出了基于分块图像和概率模型的识别方法.在北京科技大学(USTB)人耳图像库上的实验结果表明:基于Gabor滤波后图像所提取的特征比基于原始图像直接提取的特征具有更高的识别率,基于分块图像的识别率高于基于整体图像的识别率.  相似文献   

20.
随着人工智能的快速发展,手势识别已经成为重点关注和研究的对象,利用Wi-Fi信号进行手势识别的技术无需额外的设备以及光照的条件,逐渐成为手势识别的主流.针对传统基于时域统计特征的方法,将经过噪声抑制后的信号进行短时傅里叶变换(short-time Fourier transform,STFT)构建手势信号的频域特征,结...  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号