首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   6篇
  免费   0篇
物理学   6篇
  2006年   1篇
  2003年   3篇
  2000年   1篇
  1998年   1篇
排序方式: 共有6条查询结果,搜索用时 15 毫秒
1
1.
段长信息在连续语音识别中的应用研究   总被引:4,自引:1,他引:3  
基于段长分布的隐含马尔可夫模型(DDBHMM)有效地解决了经典HMM的缺陷.本文以DDBHMM模型为基础,详细研究了如何在连续语音识别中有效地利用段长信息。文中首先介绍了段长分布的统计方法,然后按照不同的说话速度对数据文件进行了分类,据此进行的识别实验表明,段长信息对于速度慢的文件效果最好,速度中等的次之,速度快的效果较小.作者认为,段长信息最大的作用在于能够得到更加精确的音节和状态分割点,并因而提高识别效果.同时,通过段长信息的有效利用,还能够提高识别系统对于说话速度的稳健性、作者又进行了细化研究,提出了利用分类段长和规整化的段长的研究方法,发现两者均可使识别效果有进一步的提高.为了研究如何利用段长之间的相关性,文中还提出了段长的Bigram的方法,并对之作了分析.最后,本文研究了采用后处理方法利用段长信息的效果,进一步说明了只有基于DDBHMM,在识别过程中同步利用段长信息,才能得到卓有成效的性能提高。  相似文献   
2.
基于MBE的帧间谱幅度相关算法   总被引:1,自引:0,他引:1  
在MBE算法基础上研究利用帧间谱幅度相关性,通过一个简单的线性预测公式,使得仅用一个增益系数及一个预测系数的预测公式,就能平均在帧移25ms时达到高于10阶LPC模型逼近MBE中谱幅度的精度。同时引入多模式编码以解决帧间不可预测问题。  相似文献   
3.
基于结构风险最小化准则的高斯混合模型的参数估计   总被引:3,自引:0,他引:3  
隐含马尔可夫模型中,观测向量的概率密度常用高斯混合模型来表示。目前,几乎所有的语音识别系统都是用极大似然准则来估计高斯混合模型的参数。但是,增加模型的成分数,可以使似然度单调上升;另一方面,过分复杂的模型会导致参数训练不充分,对测试集的识别效果反而不好。本文基于统计学习理论中结构风险最小化准则,导出了高斯混合模型的参数估计公式,与基线系统和其它成分数的选择方法相比,有较好的效果。此外根据实际应用时希望模型尽可能简单的原则推广了上述方法。在平均成分数相等的情况下,我们给出的方法比基线系统的误识率有一致的下降。  相似文献   
4.
汉语连续语音识别中一种新的音节间相关识别单元   总被引:1,自引:0,他引:1  
考虑汉语连续语音中的协同发音现象对语音识别性能的提高是非常重要的。针对汉语语音的特点,提出了一种新的在汉语连续语音识别中考虑音节间协同发音现象,对声学模型进行细化的识别单元。然后基于语音学知识对音节间上下文影响进行分类,实现单元间状态参数的共享,降低了模型的复杂程度,保证了模型的可训练度。这种方法和传统方法的最大不同在于:这种方法完全利用语音学知识进行聚类,而传统方法采用数据驱动的聚类方式。识别实验表明,基于语音学分类的音节间相关识别单元对识别性能有明显的改善,系统的首选误识率降低了17%。  相似文献   
5.
汉语连续语音识别的语速自适应算法   总被引:4,自引:3,他引:1  
在连续语音中,不同的说话者在不同语境下说话的速度差异是很大的。偏离正常语速往往会造成识别错误,使识别性能下降。考虑到语速对于语音单元段长的影响是同步增长或同步下降的,相邻语音单元的段长之间存在很强的相关性,本文从利用段长的相关信息出发,在基于段长分布的隐含马尔可夫模型(DDBHMM:Duration Distribution Based HMM)的框架上,提出了一种语速自适应算法。对数字串和大词汇量连续语音识别的试验表明这个算法是有效的。  相似文献   
6.
语音识别中信道和噪音的联合补偿   总被引:8,自引:3,他引:5  
赵蕤  王作英 《声学学报》2006,31(5):466-470
频谱和倒谱的联合调整方法,用于对语音识别中信道差异和背景噪音的存在进行联合补偿。该方法根据干净语音的最大似然准则在频域和倒谱域分别对噪音和信道进行补偿,避免了对噪音和信道影响模型进行简化所带来的误差影响,且实现时间复杂度较低。在信噪比由10dB到20dB的含有信道和加性噪音的汉语数字串识别实验中,该方法使平均音节错误率相对下降了50.44%。实验表明频谱和倒谱的联合调整方法可以快速的补偿信道差异和背景噪音。  相似文献   
1
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号