首页 > 代码库 > 概率图模型(PGM)学习笔记(一)动机与概述

概率图模型(PGM)学习笔记(一)动机与概述

本文根据Daphne Koller的课程整理。


PDM(ProbabilisticGraphiccal Models)

称为概率图模型。下面分别说明3个词对应的意义。

 

概率

-给出了不确定性的明确量度。

-给出了根据不确定性进行推断的有力工具。

-利用数据结构,建立了进行学习的方法,解决十分大规模的问题。

 

这里主要用到2种概率图,用于表示依赖关系。如图1所示。


图1


1.Bayesiannetworks

贝叶斯网络是一个有向无环图(Directed Acyclic Graph,DAG)。

由代表变量节点及连接这些节点有向边构成。节点代表随机变量,节点间的有向边代表了节点间的互相关系(由父节点指向其子节点),用条件概率进行表达关系强度,没有父节点的用先验概率进行信息表达。

 

2.Markovnetworks

马尔可夫网络是一个无向图

一方面它可以表示贝叶斯网络无法表示的一些依赖关系,如循环依赖;

另一方面,它不能表示贝叶斯网络能够表示的某些关系,如推导关系。

 

图形表示的优点

1.直观而紧凑的数据结构。

2.利用图形结构,提供了一套使用通用算法进行高效推断的方式。

3.能够用很少的参数表示高维的概率分布。参数的选择可以用手工也可以从数据中学习。

 

模型

模型是客观世界的陈述性描述。

 

 

举2个简单应用例子

1.医疗诊断(如图2所示)

医生面对病人时脑子里有大量的信息,这些信息都是关于如何诊断病人的指标(如发病诱因、症状、体检结果等等),医生现在需要决定到底应当如何施治。

图2就是一个真实的诊断网络。


图2

 

2.图像分割(如图3所示)

一副图片有成千上万个像素点或者超像素(大块的那种),需要弄清每个像素对应的内容(这些点对应的是草、天空、牛还是?)。

图中的点是随机变量,代表了像素(或者超像素)的标签,而边则代表了标签与邻近标签之间的概率关系。可以看出State of Art 的机器学习算法识别得一团糟,但是运用了PGM之后好太多了。


图3

 

这两个问题有什么共同点呢?

1.都包含了大量需要被推断的变量。

2.基本上,不论算法多么智能,能否得到正确答案,都是非常不确定的。

 

PGM的提出就是为了解决上述问题的框架。有非常广泛的应用如图4。


图4

 

家用的诊断系统

孩子生了病,家长在网站上描述病状,系统对家长提出问题。家长在回答了系统的问题之后,系统会给出孩子最有可能得的疾病。如图5所示。


图5

 

文本信息提取

将非结构型结构转成为文本中各种关键点(如人、地点、组织)之间的可能关系的表示。如图6所示。Mrs. Green这是两个词,但是要求一起识别;Green是一个词但是要识别出来它代表的是一个人,以及地点、组织等的都要通过相互之间的概率关系识别出来。如图6所示。


图6

 

总结

PGM是要做3件主要的事情:

 

1.表达

使用无向图和有向图进行表达。

使用动态和静态模型进行表达。

 

2.推断

精确推断和模糊推断(寻求计算效率和计算精度的妥协)

在不确定性状态下进行决策。

 

3.学习

自动学习参数和结构

有完全数据情形和非完全数据情形。