首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 59 毫秒
1.
一种二值图像连通区域标记快速算法   总被引:5,自引:0,他引:5  
由于处理时间和存储空间的限制,常规的区域标记算法往往无法满足实时图像处理的需要。针对这些不足,提出了一种新的二值图像区域标记快速算法。该算法通过结合轮廓跟踪技术,经过一次图像扫描即可完成所有连通区域的标记,避免了大多数改进算法都必须处理的标记冲突问题,此外,本算法不受所标记的区域的形状和面积的影响,能够准确标记任意形状的连通区域,表现出良好的鲁棒性。最后与现存的多种算法进行了比较,实验结果表明该算法是快速和高效的。  相似文献   

2.
针对传统边界跟踪算法搜索范围较大、判断次数较多这一状况,在分析了游程编码方法的基础上提出了一种基于"弦"的边界跟踪算法。该算法以弦为搜索单位,不需要扫描所有边界点的八邻域。并且该算法在基于游程编码的连通域标记后可以直接进行轮廓提取,避免了传统边界跟踪算法在连通域标记后要先将连通域转换为光栅图像形式再提取轮廓的方式。实验结果表明,该算法相较于传统的边界跟踪算法,效率有了显著的提升。  相似文献   

3.
数字图像的一种轮廓跟踪算法   总被引:2,自引:0,他引:2  
给出了一种数字图像跟踪算法,利用边缘像点的方向信息,在扇形区中进行扫描,从而得到一条完整的、边缘点彼此有机连接的轮廓曲线。方法简便易行并便于对得到的轮廓曲线做其他后继计算机处理。  相似文献   

4.
提出一种有效的计算二值图像Legendre矩的方法,首先使用Yang-离散格林公式将二值图像矩计算中区域内求和转换为沿区域边界求和;然后提取该图像的边界点,再利用Shu提出的公式计算出边界点的Legendre多项式的叠加值,经过这3步后,二维Legendre矩计算转化为一维Legendre矩计算,从而有效地减少计算复杂度,介绍了用Hatamian滤波器计算一维Legendre矩的方法,最后给出实验结果证明方法的可行性。  相似文献   

5.
快速成形技术中轮廓环的分组算法及其应用   总被引:5,自引:1,他引:5  
以平面内轮廓环的存在规则和相互关系为出发点,提出了一种简单实用的轮廓环的分组算法,通过本方法对平面的轮廓环进行分组,能够把一个平面分解成一系列简单的单连通区域,分组后的轮廓环不仅能够在进行其他运算时减少重复计算,而且可以在分区填充扫描线时减少分区数,从而减少实际扫描时的空跳.  相似文献   

6.
提出一种基于轮廓跟踪算法的虹膜定位算法. 该算法先通过像素点扫描查找二值虹膜图像中轮廓的起始点, 然后由起始点进行轮廓查找、 轮廓编码、 轮廓筛选确定虹膜内轮廓, 再通过虹膜外轮廓和巩膜间的灰度突变点到内轮廓圆心距离的平均值确定外轮廓半径, 实现虹膜内、 外轮廓的定位. 实验结果表明, 该算法具有较快的定位速度、 较高的准确率, 性能稳定.  相似文献   

7.
针对传统摔倒检测算法误判率高和算法复杂等缺点,提出一种基于轮廓跟踪的摔倒检测算法。该算法主要通过背景减除法提取监控视频中的运动目标老人,运用中值滤波和形态学处理获取完整的老人身体形状,根据轮廓跟踪算法生成边界链码,然后利用实际边界链码与摔倒模板链码的欧氏空间距离判断老人是否摔倒。实验结果表明,该算法计算复杂度低,准确率得到明显提高。  相似文献   

8.
一种基于链码的轮廓平滑算法   总被引:2,自引:0,他引:2  
研究基于目标轮廓链码的轮廓平滑算法。方法通过对目标轮廓链码的分析,选出在人工目标中出现较少或不可能出现的边缘作为不平滑边缘,通过变换将之转换成平滑边缘。  相似文献   

9.
经典的C V模型分割算法在处理较大尺寸图像时存在需多次迭代、运算时间长的缺点。在分析图像尺寸和初始逼近图像与获得稳定解的迭代次数与运算时间的关系的基础上,提出了一种改进的基于阈值分割及快速连通域标记算法的局部C V图像分割算法,对大尺寸图像进行处理。采用OTSU算法对图像进行初步的阈值分割,再利用快速非递归连通域标记算法进行连通域的标记及图像的局部分片。对分片后的小块图像以其阈值分割的结果作为初始逼近图像采用C V算法进行分割处理。算法分析及仿真结果证实,与经典C V算法相比较,改进的算法能够以很少的迭代次数和很短的运算时间达到稳定解,能够对含有丰富轮廓细节的大尺寸图像进行快速有效的处理。  相似文献   

10.
一种适合硬件实现的多值图像连通域标记算法   总被引:4,自引:0,他引:4  
提出了一种合适硬件实现的多值图像连通域标记算法.算法以有效的方式识别、保存并整理区域之间复杂的连通关系.首先,通过对图像执行一遍逐像素扫描,得到图像的初步标记结果以及初步标记之间的连通关系;然后,通过等价表整理以及图像代换,输出图像标记的最终结果,并且连通域按照扫描顺序被赋予唯一的连续自然数.仿真结果表明,该算法能够识别图像中复杂的连通关系,产生正确的标记结果,在用于大幅图像的分块标记时,能够实现全局标记一致.在以硬件方式实现该算法时,在50 MHz工作时钟下,处理320×256像素图像能够达到100帧/s的标记速度,满足大部分实时目标识别系统的要求.  相似文献   

11.
针对固定场景中的监控问题,给出一种基于"贴标签"算法的多目标标识方法.通过背景差分和连续帧间差分相结合的方法,检测和分割视频序列中的多运动目标;同时采用"贴标签"算法对检测后的二值图像进行连通成分标识;根据得到的"标签"将不同的运动目标用不同颜色的外接矩形框区分.  相似文献   

12.
基于随机轮廓匹配的快速图像配准算法   总被引:8,自引:0,他引:8  
为了克服确定性图像配准算法计算速度和准确率难以同时兼顾的缺点,提出了一种对部分重叠的图像进行快速配准的方法,该方法是基于轮廓特征的随机匹配算法。通过提取轮廓上的“关键点”作为特征点,随机选择若干特征点对得到候选变换,随后的投票阶段对其变换参数进行检验和求精。实验结果表明:对于典型的应用,该算法比传统确定性匹配算法的速度提高了约一个数量级,能够在线性时间内完成对两幅图像的配准,而且,该方法能够对包含相当比例误报的特征点集进行匹配,具有很强的适应性。  相似文献   

13.
一种基于轮廓特征的运动目标识别方法   总被引:2,自引:0,他引:2  
针对视频图像中形状匹配的局限性,即当待检测物体出现平移、旋转变化时识别目标需要很长的计算时间,提出了一种基于轮廓特征的运动目标识别方法.首先获取能自动更新的背景图像,采用背景减法提取运动目标的轮廓,然后运用其轮廓的边界不变矩特征和形态学特征,构建一个轮廓特征向量的模型,再分析比较待测运动目标轮廓特征向量与每类标准样本之间的欧氏距离,实现对运动目标的识别分类. 试验结果表明,该方法具有识别精度高、计算量小、实时性好的特点.  相似文献   

14.
提出了基于图像区域划分和改进C-V法的活动轮廓图像分割方法.通过区域划分的方法将整幅图像的分割问题转化为在不同的子区域上分别进行的图像分割问题,并在各子区域中采用改进C-V法进行图像分割.改进的C-V方法在简化Mum ford-Shah泛函的能量函数中增加距离函数惩罚项,从而将距离函数重新初始化的过程并入整个水平集框架模型中;并在分片常数优化逼近中,添加了图像梯度信息,改变了C-V法中均值取值定义,提高了对灰度层次丰富的图像分割能力.实验表明,该方法对灰度值接近、边界模糊的医学图像有很好的分割效果.  相似文献   

15.
基于二维模式匹配的图像检索快速算法   总被引:1,自引:0,他引:1  
图像检索快速算法是基于内容检索研究的重要内容 .首先推广改进了已有文本二维模式匹配快速算法 ,然后将该算法应用于图像内容的检索过程中 ,并实验研究了精确匹配和近似匹配图像检索快速算法的有效性  相似文献   

16.
基于上下边缘点匹配的连通域搜索算法   总被引:6,自引:0,他引:6  
基于上下边缘点匹配的连通域搜索算法利用连通域的上下边缘点是一一对应的这一基本原理,设计出新的高效二值图像连通域搜索方法,该算法能在行扫描图像过程中提取连通域。给出了实验分析数据,并与行程标记法进行了时间复杂度的比较,验证了该算法的有效性。  相似文献   

17.
本文介绍了一种基于边界追踪的freeman链码获取算法,算法可以快速获取二值图像中连通体边界线的freeman链码,不仅适用于单连通的简单区域,对于多连通的孔洞区域同样有效.  相似文献   

18.
针对传统的矿工面部表情识别方法中对矿工面部表情进行特征提取的时间较慢且识别准确率不高的问题,以主成分分析法为基础,运用Fisher线性判别法对传统的主成分分析法进行改进。首先在主成分分析法的基础上增加一个类间离散矩阵,使其投影后不同类别之间特征点的距离更大,同一类别之间特征点的距离更加紧凑,对矿工面部表情图像特征提取的结果更具有代表性和针对性;然后运用径向基神经网络将低维非线性可分的矿工面部表情图像对应的特征矩阵映射到高维空间并使其线性可分,从而实现对矿工面部表情的识别和分类。实验结果表明,所提出的方法对矿工面部表情识别的识别率为89.0%,优于传统矿工面部表情分类识别算法,在矿井安全监控、疲劳驾驶等领域有较好的应用前景。  相似文献   

19.
提出一种基于轮廓检测的自然图像分割方法,该方法结合了MDL(最小描述长度)统计技术和用变分水平集函数求解活动轮廓模型的图像分割方法.该方法可有效的分割出图像中最突出的感兴趣目标,实验表明本方法与当前技术相比分割效果更好.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号