首页 > 代码库 > 分词中的HMM

分词中的HMM

http://blog.csdn.net/heavendai/article/details/7030102

 

1.       首先来说一下马尔科夫链。

 

一个事件序列发生的概率可以用下面的概率论里面的乘法公式展开

 

P(w1,w2,…wn) = P(w1)P(w2|w1)P(w3| w1 w2)…P(wn|w1 w2…wn-1)

 

乘法公式的证明非常有意思,它本身就是一个递推的过程,

 

根据条件概率的定义:P(A|B) = P(AB)/ P(B)

那么 P(AB) = P(A|B) X P(B),由此可得:

P(w1,w2,…wn) = P(w1,w2,…wn-1) X P(wn|w1 w2…wn-1)

一路往下递推就能得到乘法公式的结果了。

 

假定任意一个事件wi的出现概率只同它前面的事件wi-1 有关(即一阶马尔可夫假设,多阶的情况这里不讨论)。那么上面那个乘法公式就变成下面的公式了:

 

P(w1,w2,…wn) = P(w1)P(w2|w1)P(w3|w2)…P(wi|wi-1)…

 

这个模型非常的简单,但是用处的确很大。举个例子,比如说要进行分词,我们用马尔科夫链来理解这个,假设句子中词的构成只和上一个词相关,那么这就是一个马尔可夫链,分词问题变成,要寻找一个划分 w1,w2,..wn使得 max(P(w1,w2,…wn)) 成立。一般来说 P(w2|w1) 比较小,要是 几千个这样小的数相乘的话,就会变成一个很小的数,在数学里面可以在等式两边加个 log,这样就得到

W = Log(P(w1,w2,…wn)) = P(w1)+P(w2|w1)+P(w3|w2)+…+P(wi|wi-1)+…现在求max (w) 就方便多了。

 

当然,接下来的工作还是有一定的难度,但是分词的基本的思想就是这样的。

 

2.    隐性马尔可夫链。

隐性马尔可夫链要复杂一点,基本的问题是这样的:

有两个序列,一个序列是原因,一个序列是结果。现在,我们已经知道了结果,问,这个序列的原因是什么?如果对概率论比较熟悉,你肯定知道,由结果推导原因就是 是个贝叶斯推断问题。的确,隐性马尔可夫链 就是源于这样的一个问题,当然它也有很多其他的用途。比如,分词里面一个词的词性的标记问题。已知的是一个词序列,要求这个序列每个词隐含的词性。

用数学公式表示就是这样的:

P (h(t1),h(t2),h(t3),...|o(t1),o(t2),o(t3)....), o 表示 observed(结果,你可以观察到的) , h 表示 hidden states(原因,你不能观察到的,或者说是隐性的),t1, t2, t3 表示你观察的时间。注意,o(t1),o(t2),o(t3).... 是已经确定的。因此 P(o(t1),o(t2),o(t3)....) 是一个常数。对 P (h(t1),h(t2),h(t3),...|o(t1),o(t2),o(t3)....) 用贝叶斯公式展开,

我们可以得到

P(h(t1),h(t2),h(t3),...|o(t1),o(t2),o(t3)....) = P(h(t1),h(t2),h(t3)……) X P (o(t1),o(t2),o(t3)....|(h(t1),h(t2),h(t3),...) / P(o(t1),o(t2),o(t3)……)

 

其中 P(o(t1),o(t2),o(t3)……) 是一个常数,我们的目的是找原因,所以,我们要求概率最大的P(h(t1),h(t2),h(t3),...|o(t1),o(t2),o(t3)....) ,因此常数可以忽略。

 

我们做下面的两个假设:

第一,   h(t1),h(t2),h(t3),... 是一个马尔可夫链,也就是说,h(i) 只由 h(i-1) 决定。

第二,    第 i 时刻的观察值 oi 只由第i时刻的原因 h(i) 决定(又称为独立输出假设, 即 P(o(t1),o(t2),o(t3)....| h(t1),h(t2),h(t3)....)

= P(o(t1)|h(t1)) X P(o(t2)|h(t2)) X P(o(t3)|h(t3))...。

 

这样问题就简单多了:

HHM = P(h(t1),h(t2),h(t3),...|o(t1),o(t2),o(t3)....)

= P(h(t1)) X P(h(t2)|h(t1))… X  P(o(t1)|h(t1)) X P(o(t2)|h(t2)) X P(o(t3)|h(t3))...。

 

求Max HHM。

 

求解这个公式,最出名的一个算法就是 Viterbi 算法,在说这个算法之前,我们要强调的是 求 Max(HHM). 为了更好的理解上面的模型,我们举个HMM的例子。

 

周文王被关在 天牢里面,永不见天日。但是呢,他能说出外面是晴,还是下雨。这是怎么回事呢?根据以前的经验,房子里面的潮湿程度 和 外面的天气有一定的关系。

 

Dry

Dryish

Damp

Soggy

Sun

0.6

0.2

0.15

0.05

Cloud

0.25

0.25

0.25

0.25

Rain

0.05

0.1

0.35

0.50

(表示 P(o(ti)|h(ti)) 的所有情况)

 

我们还知道,天气之间的转移矩阵如下:

 

Sun

Cloud

Rain

Sun

0.5

0.375

0.125

Cloud

0.25

0.125

0.625

Rain

0.25

0.375

0.375

(表示:P(h(ti)|h(ti-1)) 的所有情况)

 

现在某几天他观察到 房子里面的干燥程度是这样的:

Dry Dryish Damp 问,这几天 天气最有可能的情况是什么?

也就是说要求:

HHM  = P(h(t1),h(t2),h(t3)| Dry Dryish Damp) , 求 h(t1),h(t2),h(t3)的一个组合,使得 HHM   最大。

当然,你肯定想到了,用枚举法就可以了。当然,这个是一个 指数级的 复杂度,很简单的就可以证明 复杂度为 N^N.

 

下面我简单说下用 Viterbi 算法求解的思路。它的基本思路就是递归。和我们前面证明乘法公式的算法一样,求t3 可以 先求 t2, 求 t2 可以先求 t1, t1 当然十分的好求解了,就是

Max(P(h(t1) | Dry)),h(t1) 只有三种情况,[sun,cloud,rain].然后再反推回去。所以关键就是推导这个递推公式了。关于这个递推公式的推导就留给大家自己去做了,相信,你也能够自己发现 Viterbi 算法,不用看书上枯燥的算法描述。要注意的是,t2 的最优解,不一定是 t3的最优解。

分词中的HMM