Naive Bayes Classifier - 樸素貝葉斯分類器簡介在機器學習中,樸素貝葉斯分類器是一系列基于“貝葉斯原理”和“特征之間獨立分布假設”的概率分類器的總稱。把它的名稱分成兩部分來看,一部分是“貝葉斯”對應的是“貝葉斯原理”;另一部分對應的是“樸素 Naive” 對應的是 “特征之間獨立分布假設”,因為在現(xiàn)實世界里這明顯是一個過于簡單的假設。 自20世紀50年代以來, 樸素貝葉斯一直受到廣泛的研究。它是在1960s,作為一種流行的文本分類方法進入人們的視野。經(jīng)過適當?shù)念A處理, 它在文本分類領域甚至可以與更高級的算法(比如svm)取得相當?shù)乃剑?在自動醫(yī)療診斷中也有發(fā)現(xiàn)其應用價值。 數(shù)學原理樸素貝葉斯本質(zhì)上是一個條件概率模型,他首先要解決的問題是求出某個狀態(tài) 下,發(fā)生事件 的概率。數(shù)學表達式如下: 對于給定的x來說,p(x)其實是一定的,可以理解為是個常數(shù)。那么說明我們要求解的是上述等式的分子,分子可以用如下聯(lián)合概率(joint probability)表達式表示: 到了這個時候,該’Naive Bayes’里的Naive出來表演了,Naive指的是簡單,樸素:假設 里的所有 相互獨立。 可以進一步表達如下,其中 截止目前以上討論的都是 Naive Bayes 概率模型的推導問題,離我們要討論的 Naive Bayes Classifier 還差一步。要形成一個完整的 Naive Bayes Classifier,我們還需要一個判定法則。最通常用的一個法則是最大概率法則(MAP rule); 結(jié)合如上法則,我們可以形成一個完整的 Naive Bayes Classifier 了。 不同的 Naive Bayes Classifier 的不同之處主要體現(xiàn)在其對 的假設上,比如說 ‘Gaussian Naive Bayes’ 的假設是, 服從高斯分布:
在訓練一個 “Gaussian Naive Bayes Classifier” 的時候,我們的目的是計算出 y 的mean( )和std( )。 優(yōu)劣勢討論樸素貝葉斯是一種基于概率理論的分類算法,其代碼實現(xiàn)和訓練都比較簡單,需要計算量較少。盡管它對于特征相互獨立這一假設不太符合實際,但是卻使其在在實際中更加實用。特征間關(guān)系的解耦,使得我們可以獨立地研究每個特征相對于類別的分布,有效避免了‘維度災難’(即需要處理的數(shù)據(jù)量隨著特征數(shù)量(維度)的增加呈指數(shù)級地增長)。 另一方面,盡管樸素貝葉斯在分類領域的效果不錯,是處理分類問題的一把好手,但卻不能準確預測事務的概率,它的機制設計是通過概率之間的比較輸出結(jié)果,更關(guān)注的是相對的大小。 參考文獻 |
|
來自: 昵稱45943784 > 《待分類》