统计学习方法(笔记)-朴素贝叶斯法
71
朴素贝叶斯(naïve Bayes)法是基于被也是定力与特征条件独立假设的分布方法。首先对于训练数据集,基于特征条件独立假设学习输入输出的联合概率分布,然后对于给定的输入,利用贝叶斯定理求出后验概率最大的输出。
朴素贝叶斯法的学习与分类
朴素贝叶斯法是典型的生成学习方法。利用训练数据学习P(X|Y)和P(Y)的估计,得到联合概率分布
P(X,Y)=P(X)P(X|Y)
概率估计方法可以是极大似然估计或者贝叶斯估计。
朴素贝叶斯法的基本假设使条件独立性。
P(X=x|Y=ck)=P(X(1)=x(1),…,X(n)=x(n)|Y=ck)=n∏j=1P(X(j)=x(j)|Y=ck)
条件独立假设使朴素贝叶斯法变得简单,但是有时候会牺牲一定的分类准确率。
朴素贝叶斯法利用贝叶斯定理与学到的联合概率模型进行分类预测,将输入的 x 分到后验概率最大的类 y:
$$y=\arg \max {c_k}P(Y=c_k)\prod \limits{j=1}^nP(X^{(j)}=x^{(j)}|Y=c_k)$$
后验概率最大等价于0-1函数损失时的期望风险最小化。
朴素贝叶斯法的参数估计
在朴素贝叶斯法中,学习即估计P(Y=ck)和P(X(j)=x(j)|Y=ck)
极大似然估计
先验概率P(Y=ck)的极大似然估计是:
P(Y=ck)=N∑i=1I(yi=ck)N,k=1,2,…,K
设第 j 个特征x(j)可能取值集合为aj1,aj2,…,ajSj,则条件概率为:
P(X(j)=ajl|Y=ck)=N∑i=1I(x(j)i=ajl,yi=ck)N∑i=1I(yi=ck) j=1,2,…,n;l=1,2,…S;k=1,2,…,K
贝叶斯估计
极大似然估计可能会出现估计的概率值为 0 的情况,这会影响到后验概率的计算结果。可以使用贝叶斯估计来解决这一问题。贝叶斯估计即加入一个系数防止0情况出现。
Pλ(Y=ck)=N∑i=1I(yi=ck)+λN+Kλ,k=1,2,…,K
Pλ(X(j)=ajl|Y=ck)=N∑i=1I(x(j)i=ajl,yi=ck)+λN∑i=1I(yi=ck)+Sjλ j=1,2,…,n;l=1,2,…S;k=1,2,…,K
上面两式中,λ≥0,当取1时,称为拉普拉斯平滑。