隐马尔可夫模型最详细讲解 HMM(Hidden Markov Model)

您所在的位置:网站首页 马尔可夫算法不正确的是 隐马尔可夫模型最详细讲解 HMM(Hidden Markov Model)

隐马尔可夫模型最详细讲解 HMM(Hidden Markov Model)

#隐马尔可夫模型最详细讲解 HMM(Hidden Markov Model)| 来源: 网络整理| 查看: 265

最近有一个作业要手撸HMM,找了很多资料,这篇文章属写的最好的,故转载过来。

另如果觉得文章看起来比较费力,还可以配合下面两个视频下饭。

https://www.bilibili.com/video/BV1BW411P7gV   悉尼科大徐亦达

https://www.bilibili.com/video/BV1MW41167Rf   shuhuai大神

如果是喜欢看书的,请参考李航老师《统计学习方法》,博客作业也是参考这本书

 

隐马尔科夫模型(Hidden Markov Model,以下简称HMM)是比较经典的机器学习模型了,它在语言识别,自然语言处理,模式识别等领域得到广泛的应用。当然,随着目前深度学习的崛起,尤其是RNN,LSTM等神经网络序列模型的火热,HMM的地位有所下降。但是作为一个经典的模型,学习HMM的模型和对应算法,对我们解决问题建模的能力提高以及算法思路的拓展还是很好的。本文是HMM系列的第一篇,关注于HMM模型的基础。

1. 什么样的问题需要HMM模型

首先我们来看看什么样的问题解决可以用HMM模型。使用HMM模型时我们的问题一般有这两个特征:1)我们的问题是基于序列的,比如时间序列,或者状态序列。2)我们的问题中有两类数据,一类序列数据是可以观测到的,即观测序列;而另一类数据是不能观察到的,即隐藏状态序列,简称状态序列。

有了这两个特征,那么这个问题一般可以用HMM模型来尝试解决。这样的问题在实际生活中是很多的。比如:我现在在打字写博客,我在键盘上敲出来的一系列字符就是观测序列,而我实际想写的一段话就是隐藏序列,输入法的任务就是从敲入的一系列字符尽可能的猜测我要写的一段话,并把最可能的词语放在最前面让我选择,这就可以看做一个HMM模型了。再举一个,我在和你说话,我发出的一串连续的声音就是观测序列,而我实际要表达的一段话就是状态序列,你大脑的任务,就是从这一串连续的声音中判断出我最可能要表达的话的内容。

从这些例子中,我们可以发现,HMM模型可以无处不在。但是上面的描述还不精确,下面我们用精确的数学符号来表述我们的HMM模型。

2. HMM模型的定义

3.一个HMM模型实例

下面我们用一个简单的实例来描述上面抽象出的HMM模型。这是一个盒子与球的模型,例子来源于李航的《统计学习方法》。

假设我们有3个盒子,每个盒子里都有红色和白色两种球,这三个盒子里球的数量分别是:

盒子

1

2

3

红球数

5

4

7

白球数

5

6

3

按照下面的方法从盒子里抽球,开始的时候,从第一个盒子抽球的概率是0.2,从第二个盒子抽球的概率是0.4,从第三个盒子抽球的概率是0.4。以这个概率抽一次球后,将球放回。然后从当前盒子转移到下一个盒子进行抽球。规则是:如果当前抽球的盒子是第一个盒子,则以0.5的概率仍然留在第一个盒子继续抽球,以0.2的概率去第二个盒子抽球,以0.3的概率去第三个盒子抽球。如果当前抽球的盒子是第二个盒子,则以0.5的概率仍然留在第二个盒子继续抽球,以0.3的概率去第一个盒子抽球,以0.2的概率去第三个盒子抽球。如果当前抽球的盒子是第三个盒子,则以0.5的概率仍然留在第三个盒子继续抽球,以0.2的概率去第一个盒子抽球,以0.3的概率去第二个盒子抽球。如此下去,直到重复三次,得到一个球的颜色的观测序列:

4. HMM观测序列的生成

5. HMM模型的三个基本问题

 

 

前面我们讲到了HMM模型的基础知识和HMM的三个基本问题,下面我们就关注于HMM第一个基本问题的解决方法,即已知模型和观测序列,求观测序列出现的概率。

1. 回顾HMM问题一:求观测序列的概率

2. 用前向算法求HMM观测序列的概率

 前向后向算法是前向算法和后向算法的统称,这两个算法都可以用来求HMM观测序列的概率。我们先来看看前向算法是如何求解这个问题的。

 

 前向算法本质上属于动态规划的算法,也就是我们要通过找到局部状态递推的公式,这样一步步的从子问题的最优解拓展到整个问题的最优解。

 

 

3. HMM前向算法求解实例

这里我们用隐马尔科夫模型HMM(一)HMM模型中盒子与球的例子来显示前向概率的计算。

 

4. 用后向算法求HMM观测序列的概率

熟悉了用前向算法求HMM观测序列的概率,现在我们再来看看怎么用后向算法求HMM观测序列的概率。

 

后向算法和前向算法非常类似,都是用的动态规划,唯一的区别是选择的局部状态不同,后向算法用的是“后向概率”,那么后向概率是如何定义的呢?

 

5. HMM常用概率的计算

 

接下来我们会讨论HMM模型参数求解的问题,这个问题在HMM三个问题里算是最复杂的。在研究这个问题之前,建议先阅读这个系列的前两篇以熟悉HMM模型和HMM的前向后向算法,以及EM算法原理总结,这些在本篇里会用到。在李航的《统计学习方法》中,这个算法的讲解只考虑了单个观测序列的求解,因此无法用于实际多样本观测序列的模型求解,本文关注于如何使用多个观测序列来求解HMM模型参数。

 

 

1. HMM模型参数求解概述

2. 鲍姆-韦尔奇算法原理

3. 鲍姆-韦尔奇算法的推导

 

 

 

利用我们在隐马尔科夫模型HMM(二)前向后向算法评估观察序列概率里第二节中前向概率的定义可得:

 

4. 鲍姆-韦尔奇算法流程总结

 

下面我们会讨论HMM模型最后一个问题的求解,即即给定模型和观测序列,求给定观测序列条件下,最可能出现的对应的隐藏状态序列。在阅读本篇前,建议先阅读这个系列的第一篇以熟悉HMM模型。

HMM模型的解码问题最常用的算法是维特比算法,当然也有其他的算法可以求解这个问题。同时维特比算法是一个通用的求序列最短路径的动态规划算法,也可以用于很多其他问题,比如之前讲到的文本挖掘的分词原理中我们讲到了单独用维特比算法来做分词。

下面关注于用维特比算法来解码HMM的的最可能隐藏状态序列。

 

1. HMM最可能隐藏状态序列求解概述

近似算法很简单,但是却不能保证预测的状态序列是整体是最可能的状态序列,因为预测的状态序列中某些相邻的隐藏状态可能存在转移概率为0的情况。

而维特比算法可以将HMM的状态序列作为一个整体来考虑,避免近似算法的问题,下面我们来看看维特比算法进行HMM解码的方法。

2. 维特比算法概述

维特比算法是一个通用的解码算法,是基于动态规划的求序列最短路径的方法。在文本挖掘的分词原理中我们已经讲到了维特比算法的一些细节。

既然是动态规划算法,那么就需要找到合适的局部状态,以及局部状态的递推公式。在HMM中,维特比算法定义了两个局部状态用于递推。

3. 维特比算法流程总结

现在我们来总结下维特比算法的流程:

4. HMM维特比算法求解实例

下面我们仍然用隐马尔科夫模型HMM(一)HMM模型中盒子与球的例子来看看HMM维特比算法求解。

 

5. HMM模型维特比算法总结

如果大家看过之前写的文本挖掘的分词原理中的维特比算法,就会发现这两篇之中的维特比算法稍有不同。主要原因是在中文分词时,我们没有观察状态和隐藏状态的区别,只有一种状态。但是维特比算法的核心是定义动态规划的局部状态与局部递推公式,这一点在中文分词维特比算法和HMM的维特比算法是相同的,也是维特比算法的精华所在。

 

 维特比算法也是寻找序列最短路径的一个通用方法,和dijkstra算法有些类似,但是dijkstra算法并没有使用动态规划,而是贪心算法。同时维特比算法仅仅局限于求序列最短路径,而dijkstra算法是通用的求最短路径的方法。

 

 

 

在之前的HMM系列中,我们对隐马尔科夫模型HMM的原理以及三个问题的求解方法做了总结。下面我们就从实践的角度用Python的hmmlearn库来学习HMM的使用。关于hmmlearn的更多资料在官方文档有介绍。

 

1. hmmlearn概述

 

hmmlearn安装很简单,"pip install hmmlearn"即可完成。

hmmlearn实现了三种HMM模型类,按照观测状态是连续状态还是离散状态,可以分为两类。GaussianHMM和GMMHMM是连续观测状态的HMM模型,而MultinomialHMM是离散观测状态的模型,也是我们在HMM原理系列篇里面使用的模型。

2. MultinomialHMM实例

下面我们用我们在HMM系列原理篇中的例子来使用MultinomialHMM跑一遍。

完整代码参见我的github:https://github.com/ljpzzz/machinelearning/blob/master/natural-language-processing/hmm.ipynb

首先建立HMM的模型:

import numpy as np from hmmlearn import hmm states = ["box 1", "box 2", "box3"] n_states = len(states) observations = ["red", "white"] n_observations = len(observations) start_probability = np.array([0.2, 0.4, 0.4]) transition_probability = np.array([   [0.5, 0.2, 0.3],   [0.3, 0.5, 0.2],   [0.2, 0.3, 0.5] ]) emission_probability = np.array([   [0.5, 0.5],   [0.4, 0.6],   [0.7, 0.3] ]) model = hmm.MultinomialHMM(n_components=n_states) model.startprob_=start_probability model.transmat_=transition_probability model.emissionprob_=emission_probability

现在我们来跑一跑HMM问题三维特比算法的解码过程,使用和原理篇一样的观测序列来解码,代码如下:

seen = np.array([[0,1,0]]).T logprob, box = model.decode(seen, algorithm="viterbi") print("The ball picked:", ", ".join(map(lambda x: observations[x], seen))) print("The hidden box", ", ".join(map(lambda x: states[x], box)))

输出结果如下:

('The ball picked:', 'red, white, red') ('The hidden box', 'box3, box3, box3')

可以看出,结果和我们原理篇中的手动计算的结果是一样的。

也可以使用predict函数,结果也是一样的,代码如下:

box2 = model.predict(seen) print("The ball picked:", ", ".join(map(lambda x: observations[x], seen))) print("The hidden box", ", ".join(map(lambda x: states[x], box2)))

 

大家可以跑一下,看看结果是否和decode函数相同。

现在我们再来看看求HMM问题一的观测序列的概率的问题,代码如下:

print model.score(seen)

输出结果是:

-2.03854530992

要注意的是score函数返回的是以自然对数为底的对数概率值,我们在HMM问题一中手动计算的结果是未取对数的原始概率是0.13022。对比一下:

 

现在我们再看看HMM问题二,求解模型参数的问题。由于鲍姆-韦尔奇算法是基于EM算法的近似算法,所以我们需要多跑几次,比如下面我们跑三次,选择一个比较优的模型参数,代码如下:

 

import numpy as np from hmmlearn import hmm states = ["box 1", "box 2", "box3"] n_states = len(states) observations = ["red", "white"] n_observations = len(observations) model2 = hmm.MultinomialHMM(n_components=n_states, n_iter=20, tol=0.01) X2 = np.array([[0,1,0,1],[0,0,0,1],[1,0,1,1]]) model2.fit(X2) print model2.startprob_ print model2.transmat_ print model2.emissionprob_ print model2.score(X2) model2.fit(X2) print model2.startprob_ print model2.transmat_ print model2.emissionprob_ print model2.score(X2) model2.fit(X2) print model2.startprob_ print model2.transmat_ print model2.emissionprob_ print model2.score(X2)

结果这里就略去了,最终我们会选择分数最高的模型参数。

以上就是用MultinomialHMM解决HMM模型三个问题的方法。

 

3. GaussianHMM实例

下面我们再给一个GaussianHMM的实例,这个实例中,我们的观测状态是二维的,而隐藏状态有4个。因此我们的“means”参数是4×24×2的矩阵,而“covars”参数是4×2×24×2×2的张量。

建立模型如下:

startprob = np.array([0.6, 0.3, 0.1, 0.0]) # The transition matrix, note that there are no transitions possible # between component 1 and 3 transmat = np.array([[0.7, 0.2, 0.0, 0.1],                      [0.3, 0.5, 0.2, 0.0],                      [0.0, 0.3, 0.5, 0.2],                      [0.2, 0.0, 0.2, 0.6]]) # The means of each component means = np.array([[0.0,  0.0],                   [0.0, 11.0],                   [9.0, 10.0],                   [11.0, -1.0]]) # The covariance of each component covars = .5 * np.tile(np.identity(2), (4, 1, 1)) # Build an HMM instance and set parameters model3 = hmm.GaussianHMM(n_components=4, covariance_type="full") # Instead of fitting it from the data, we directly set the estimated # parameters, the means and covariance of the components model3.startprob_ = startprob model3.transmat_ = transmat model3.means_ = means model3.covars_ = covars

注意上面有个参数covariance_type,取值为"full"意味所有的μ,Σμ,Σ都需要指定。取值为“spherical”则ΣΣ的非对角线元素为0,对角线元素相同。取值为“diag”则ΣΣ的非对角线元素为0,对角线元素可以不同,"tied"指所有的隐藏状态对应的观测状态分布使用相同的协方差矩阵ΣΣ

我们现在跑一跑HMM问题一解码的过程,由于观测状态是二维的,我们用的三维观测序列, 所以这里的 输入是一个3×23×2的矩阵,代码如下:

seen = np.array([[1.1,2.0],[-1,2.0],[3,7]]) logprob, state = model3.decode(seen, algorithm="viterbi") print state

     输出结果如下:

[0 0 1]

再看看HMM问题一对数概率的计算:

print model3.score(seen)

输出如下:

-41.1211281377

以上就是用hmmlearn学习HMM的过程。希望可以帮到大家。

 

 

原文地址:https://www.cnblogs.com/pinard/p/6945257.html

 



【本文地址】


今日新闻


推荐新闻


CopyRight 2018-2019 办公设备维修网 版权所有 豫ICP备15022753号-3