隐马尔可夫模型是同时包含了隐状态和观测值的随机过程模型。其中一个具有马尔可夫性质,但是无法观测到。而另外一个可观测到的,通过输出概率分布和隐过程联系起来。隐过程为离散时间有限状态马尔可夫链的隐马尔可夫模型是其中的一个重要分支。为了便于讨论的进行,通常会对模型进行两个 假设。一,马尔可夫链的时间齐次性;二,观测值在已知对应时刻隐状态的条 件下是相互独立的。在这样的假设之下模型的参数便包含了两部分:马尔可夫链的转移概率矩阵、观测值的输出概率。由于隐状态无法观测到,所以似然函数只能够通过观测值进行计算。隐马尔可夫模型的参数估计一般采用EM算法。 EM算法是对有隐变量的模型计算其极大似然估计的迭代算法。每次迭代包括两个步骤:E步(Expectation)和M步(Maximization)计算在观测值和现有参数估计之下对数似然函数的条件期望,M步则寻找参数使在E步中计算出的条件期望 达到最大,得到的新参数将使用在下一次迭代的E步中。如此求到的参数估计实 际上是参数的局部极大似然估计。EM算法虽然收敛的速度较慢,但是在计算上便于实现。M步的优化结果在某些分布假设下可以得到显式表达。论文网
然而EM算法是一个不便于参数估计更新的算法。即当新的观测值产生时, 为了对参数估计进行更新,EM算法必须对所有数据重新进行迭代计算。这会大大的增加计算量,降低效率。在对高频数据进行建模的过程中,EM算法的这个缺陷将会带来极大的不便。另一方面,如果数据在录入之后无法单独存储下来,那么EM算法将无法对参数估计进行更新。近年来,许多学者为构造可更新 的EM算法做出了贡献。Cappé(2011)[8]在假设马尔可夫链转移概率和观测值输 出概率均服从指数族分布的假设下,利用充分统计量的迭代更新构造出了一个可更新的EM算法。来自~优尔、论文|网www.youerw.com +QQ752018766-
1。2本文的主要内容
本文组织如下:从第二章开始我们开始分小结简单介绍隐马尔科夫模型以及EM算法,最后专门讨论隐马尔科夫模型的可更新EM算法,特别是,它与以前所提出的理论数值复杂的关联性,还包含有关该方法的收敛性的初步结果
隐Markov模型的EM学习算法(2):http://www.youerw.com/shuxue/lunwen_105670.html