首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到17条相似文献,搜索用时 109 毫秒
1.
利用鞅方法讨论了非齐次隐马尔可夫模型变换的强极限定理,作为特殊情形,将随机选择的概念拓展到非齐次隐马尔可夫模型中,得到了关于有限非齐次隐马尔可夫模型随机选择与随机公平比的若干极限定理.  相似文献   

2.
本文简单介绍了隐马尔可夫模型,并对半年期银行存款利率建立了隐马尔可夫模型,指明了其所对应的货币政策.  相似文献   

3.
吴小太  杨卫国 《数学杂志》2011,31(2):314-322
本文研究了一类隐非齐次马尔可夫模型的强极限定理.利用鞅差序列收敛定理,获得了观测链{Y_n,n≥0}的强大数定律,并给出了观测链的Shannon-McMillan定理.  相似文献   

4.
本文简单介绍了隐马尔可夫模型,并对半年期银行存款利率建立了隐马尔可夫模型,指明了其所对应的货币政策。  相似文献   

5.
《数理统计与管理》2018,(2):272-279
结构方程模型是一种含有潜变量的经典统计学模型,被广泛应用于心理学、教育学、经济学、医学等领域。隐马尔可夫模型是一种基于随机过程的统计模型。本文书结构方程模型与隐马尔可夫模型相结合,构造了一种新的模型——隐马尔可夫结构方程模型,详细给出了隐马尔可夫结构方程模型的数学定义。为了对模型的系数进行贝叶斯估计,设定了模型参数的先验分布,然后利用MCMC方法模拟参数的后验分布,计算出了参数的后验均值作为参数的估计值。最后将参数的估计值与真值进行比较,发现估计效果良好。  相似文献   

6.
对经典隐马尔可夫模型学习算法的改进   总被引:1,自引:0,他引:1  
改进经典隐马尔可夫模型(HMM)的状态转移和输出观测值的假设条件,并在经典隐马尔可夫模型的基础上导出新模型的学习算法.新算法避免了经典隐马尔可夫模型中状态转移概率和输出观测值概率计算时只考虑当前状态而不考虑历史的简单做法.  相似文献   

7.
本文研究了隐马尔可夫模型的Viterbi算法,在已知隐马尔可夫模型的部分状态、初始概率分布、状态转移概率矩阵和观测概率矩阵的条件下,由此Viterbi算法给出最优状态序列的估计.相对于已有的算法,本文的算法考虑了部分可见状态对初始条件和递推公式的影响,并且本文的算法能保证预测的状态序列是整体最优的.最后,我们将本文的算法应用于故障识别,从而验证所设计算法的可行性.  相似文献   

8.
引入了隐Markov模型的定义和绝对平均收敛的概念,研究了信息论中的编码问题,得到了有限状态下隐非齐次Markov模型的熵率存在性定理.  相似文献   

9.
VaR和ES是衡量金融资产风险的重要测度,对风险控制和金融危机的识别具有重要意义。本文以CAViaR模型为基础,通过因子隐马尔可夫模型构造潜变量,作为CAViaR模型的回归系数的组成部分,最终提出了一个含潜变量的VaR和ES联合估计方法(FHM-CAViaR),实现了VaR和ES的联合预测。在该模型中,潜变量由一个因子隐马尔可夫模型驱动,可以刻画市场信息对模型系数带来的长期效应与短期冲击,该因子隐马尔可夫模型的引入实现了分位数回归模型参数在上百个状态间的转换。最后,基于本文提出的FHM-CAViaR模型分别对上证综指、深证综指和纳斯达克指数的对数收益率数据进行实证分析。实证结果表明,本文提出的模型具有更优的预测效果。此外实证结果还表明,在危机期间VaR的序列聚集性有着显著的增加。本文提出的模型可以通过潜变量的变化识别市场的机制变换,且能更精确地对金融资产的VaR以及ES进行估计,给出金融风险度量一种新的研究方法。  相似文献   

10.
连续时间遗传算法模型及其强收敛性分析   总被引:4,自引:0,他引:4  
程国胜 《应用数学》2002,15(4):23-28
本文在隐马尔可夫链的框架下利用隐马尔可夫链{Xt:t∈[0,∞)}的观测链的概率分布提出一个连续化遗传算法模型,并给出其一个强收敛结果,讨论了其离散骨架的性质。  相似文献   

11.
隐马尔科夫模型被广泛的应用于弱相依随机变量的建模,是研究神经生理学、发音过程和生物遗传等问题的有力工具。研究了可列非齐次隐 Markov 模型的若干性质,得到了这类模型的强大数定律,推广了有限非齐次马氏链的一类强大数定律。  相似文献   

12.
引入隐Markov模型强马氏性的概念,并进一步研究了隐Markov模型在强马氏性方面的一些性质.  相似文献   

13.
隐马氏模型作为一种具有双重随机过程的统计模型,具有可靠的概率统计理论基础和强有力的数学结构,已被广泛应用于语音识别、生物序列分析、金融数据分析等领域.由于传统的一阶隐马氏模型无法表示更远状态距离间的依赖关系,就可能会忽略很多有用的统计特征,故有人提出二阶隐马氏模型的概念,但此概念并不严格.本文给出二阶离散隐马尔科夫模型的严格定义,并研究了二阶离散隐马尔科夫模型的两个等价性质.  相似文献   

14.
Tracking the output of an unknown Markov process with unknown generator and unknown output function is considered. It is assumed the unknown quantities have a known prior probability distribution. It is shown that the optimal control is a linear feedback in the tracking error plus the conditional expectation of a quantity involving the unknown generator and output function of the Markov process. The results also have application to Bayesian identification of hidden Markov models  相似文献   

15.
A partially observed stochastic system is described by a discrete time pair of Markov processes. The observed state process has a transition probability that is controlled and depends on a hidden Markov process that also can be controlled. The hidden Markov process is completely observed in a closed set, which in particular can be the empty set and only observed through the other process in the complement of this closed set. An ergodic control problem is solved by a vanishing discount approach. In the case when the transition operators for the observed state process and the hidden Markov process depend on a parameter and the closed set, where the hidden Markov process is completely observed, is nonempty and recurrent an adaptive control is constructed based on this family of estimates that is almost optimal.  相似文献   

16.
首先通过Hadar等价变换方法将高阶隐马氏模型转换为与之等价的一阶向量值隐马氏模型,然后利用动态规划原理建立了一阶向量值隐马氏模型的Viterbi算法,最后通过高阶隐马氏模型和一阶向量值隐马氏模型之间的等价关系建立了高阶隐马氏模型基于动态规划推广的Viterbi算法.研究结果在一定程度上推广了几乎所有隐马氏模型文献中所涉及到的解码问题的Viterbi算法,从而进一步丰富和发展了高阶隐马氏模型的算法理论.  相似文献   

17.
Hidden Markov models are used as tools for pattern recognition in a number of areas, ranging from speech processing to biological sequence analysis. Profile hidden Markov models represent a class of so-called “left–right” models that have an architecture that is specifically relevant to classification of proteins into structural families based on their amino acid sequences. Standard learning methods for such models employ a variety of heuristics applied to the expectation-maximization implementation of the maximum likelihood estimation procedure in order to find the global maximum of the likelihood function. Here, we compare maximum likelihood estimation to fully Bayesian estimation of parameters for profile hidden Markov models with a small number of parameters. We find that, relative to maximum likelihood methods, Bayesian methods assign higher scores to data sequences that are distantly related to the pattern consensus, show better performance in classifying these sequences correctly, and continue to perform robustly with regard to misspecification of the number of model parameters. Though our study is limited in scope, we expect our results to remain relevant for models with a large number of parameters and other types of left–right hidden Markov models.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号