首页 > 代码库 > 【数据挖掘】分类之Naïve Bayes(转载)
【数据挖掘】分类之Naïve Bayes(转载)
【数据挖掘】分类之Na?ve Bayes
1.算法简介
朴素贝叶斯(Naive Bayes)是监督学习的一种常用算法,易于实现,没有迭代,并有坚实的数学理论(即贝叶斯定理)作为支撑。
本文以拼写检查作为例子,讲解Naive Bayes分类器是如何实现的。对于用户输入的一个单词(words),拼写检查试图推断出最有可能的那个正确单词(correct)。当然,输入的单词有可能本身就是正确的。比如,输入的单词thew,用户有可能是想输入the,也有可能是想输入thaw。为了解决这个问题,Naive Bayes分类器采用了后验概率P(c|w)来解决这个问题。P(c|w)表示在发生了w的情况下推断出c的概率。为了找出最有可能c,应找出有最大值的P(c|w),即求解问题
argmaxc P(c|w)
根据贝叶斯定理,
P(c|w)=P(w|c) P(c) / P(w)
对于任意的c,P(w)均相等,问题等价与
argmaxc P(w|c) P(c)
P(w|c)表示的是用户输入w而是想输入c的概率。为了得到P(c),我们可以从文本库中统计c出现的频率。但是,P(w|c)似乎计算起来不那么容易。Norvig [1]中给出了一个简化计算办法:
(1)如果w拼写正确并且出现在文本库中,返回w;
(2)如果(1)没发生,计算与w的编辑距离为1的所有候选c,选出文本库中出现频率最高者;
(3)如果(1)(2)均没发生,计算与w的编辑距离为2的所有候选c,选出文本库中出现频率最高者;
(4)如果(1)(2)(3)均没发生,返回w。
一个单词通过删除、交换、更改、插入四个操作中一种,变换成另一个单词,这两个单词之间的编辑距离为1。
import re, collections def words(text): return re.findall(‘[a-z]+‘, text.lower()) def train(features): model=collections.defaultdict(lambda: 1) for f in features: model[f] += 1 return model NWORDS = train(words(file(‘big.txt‘).read())) alphabet = ‘abcdefghijklmnopqrstuvwxyz‘ def edits1(word): splits=[(word[:i], word[i:]) for i in range(len(word) + 1)] deletes=[a + b[1:] for a, b in splits if b] transposes=[a + b[1] + b[0] + b[2:] for a, b in splits if len(b)>1] replaces=[a + c + b[1:] for a, b in splits for c in alphabet if b] inserts=[a + c + b for a, b in splits for c in alphabet] return set(deletes + transposes + replaces + inserts) def known_edits2(word): return set(e2 for e1 in edits1(word) for e2 in edits1(e1) if e2 in NWORDS) def known(words): return set(w for w in words if w in NWORDS) def correct(word): candidates = known([word]) or known(edits1(word)) or known_edits2(word) or [word] return max(candidates, key=NWORDS.get)
2.Referrence
[1] Peter Norvig, How to Write a Spelling Corrector.
[2] 阮一峰, 贝叶斯推断及其互联网应用(三):拼写检查.
【数据挖掘】分类之Naïve Bayes(转载)