乡下人产国偷v产偷v自拍,国产午夜片在线观看,婷婷成人亚洲综合国产麻豆,久久综合给合久久狠狠狠9

  • <output id="e9wm2"></output>
    <s id="e9wm2"><nobr id="e9wm2"><ins id="e9wm2"></ins></nobr></s>

    • 分享

      學好機器學習需要哪些數(shù)學知識?

       自然大道張 2018-04-25

      很多同學談數(shù)學色變,但數(shù)學是機器學習繞不開的基礎(chǔ)知識。今天我們來談?wù)勥@個話題:學好機器學習究竟需要哪些數(shù)學知識?


      先看某乎上的回答:


      “ 隨機過程,實分析。機器學習往深里做肯定需要用這種,高級的數(shù)學語言去對問題進行描述。我本人對隨機和實分析,其實目前也還只是略懂,很難說,真正的徹底掌握這兩門十分強大的數(shù)學工具?!?/p>


      “我本科沒好好學泛函,到學到一些ML的方法比如kernel相關(guān)的方法的時候就凸顯出來對泛函不熟,對函數(shù)空間理解不夠的話會比較吃力。但重要性上比如前面幾個方面?!?/p>


      (以上為原文引用,錯別字沒有校正)


      大部分讀者看到這樣的答案之后內(nèi)心是凄涼的。實變函數(shù),拓撲學,泛函分析,除了數(shù)學系之外,很少有其他專業(yè)會學這些課程。


              實變函數(shù)學十遍

              隨機過程隨機過

              泛函分析心犯寒

      我們先用不少大學流傳的順口溜壓壓驚


      真的需要學習這些令人不寒而栗的課程嗎?事實上,要理解和掌握絕大部分機器學習算法和理論,尤其是對做工程應(yīng)用的人而言,所需要的數(shù)學知識大學數(shù)學老師已經(jīng)給你了:

      微積分

      線性代數(shù)

      概率論

      最優(yōu)化方法


      關(guān)鍵知識點


      微積分

      先說微積分/高等數(shù)學。在機器學習中,微積分主要用到了微分部分,作用是求函數(shù)的極值,就是很多機器學習庫中的求解器(solver)所實現(xiàn)的功能。在機器學習里會用到微積分中的以下知識點:


      • 導數(shù)和偏導數(shù)的定義與計算方法

      • 梯度向量的定義

      • 極值定理,可導函數(shù)在極值點處導數(shù)或梯度必須為0

      • 雅克比矩陣,這是向量到向量映射函數(shù)的偏導數(shù)構(gòu)成的矩陣,在求導推導中會用到

      • Hessian矩陣,這是2階導數(shù)對多元函數(shù)的推廣,與函數(shù)的極值有密切的聯(lián)系

      • 凸函數(shù)的定義與判斷方法

      • 泰勒展開公式

      • 拉格朗日乘數(shù)法,用于求解帶等式約束的極值問題


      其中最核心的是記住多元函數(shù)的泰勒展開公式,根據(jù)它我們可以推導出機器學習中常用的梯度下降法,牛頓法,擬牛頓法等一系列最優(yōu)化方法:


      參考書目:


      微積分用經(jīng)典的同濟7版就可以了,這是國內(nèi)很多高校工科專業(yè)的微積分教材。如果想深入學習,可以看數(shù)學分析的教材,這是數(shù)學系的微積分。北大張筑生先生所著的數(shù)學分析可謂是國內(nèi)這方面教材的精品。

      同濟大學

      《高等數(shù)學》

      張筑生

      《數(shù)學分析新講》


      線性代數(shù)

      相比之下,線性代數(shù)用的更多。在機器學習的幾乎所有地方都有使用,具體用到的知識點有:


      • 向量和它的各種運算,包括加法,減法,數(shù)乘,轉(zhuǎn)置,內(nèi)積

      • 向量和矩陣的范數(shù),L1范數(shù)和L2范數(shù)

      • 矩陣和它的各種運算,包括加法,減法,乘法,數(shù)乘

      • 逆矩陣的定義與性質(zhì)

      • 行列式的定義與計算方法

      • 二次型的定義

      • 矩陣的正定性

      • 矩陣的特征值與特征向量

      • 矩陣的奇異值分解

      • 線性方程組的數(shù)值解法,尤其是共軛梯度法


      機器學習算法處理的數(shù)據(jù)一般都是向量、矩陣或者張量。經(jīng)典的機器學習算法輸入的數(shù)據(jù)都是特征向量,深度學習算法在處理圖像時輸入的2維的矩陣或者3維的張量。掌握這些知識會使你游刃有余。


      參考書目:


      線性代數(shù)同樣是同濟版的教材,如果想更全面系統(tǒng)的學習,可以看斯蒂文的這本。

      同濟大學

      《線性代數(shù)》

      Steven Leon

      《線性代數(shù)》



      概率論

      如果把機器學習所處理的樣本數(shù)據(jù)看作隨機變量/向量,我們就可以用概率論的觀點對問題進行建模,這代表了機器學習中很大一類方法。在機器學習里用到的概率論知識點有:

      • 隨機事件的概念,概率的定義與計算方法

      • 隨機變量與概率分布,尤其是連續(xù)型隨機變量的概率密度函數(shù)和分布函數(shù)

      • 條件概率與貝葉斯公式

      • 常用的概率分布,包括正態(tài)分布,伯努利二項分布,均勻分布

      • 隨機變量的均值與方差,協(xié)方差

      • 隨機變量的獨立性

      • 最大似然估計


      這些知識不超出普通理工科概率論教材的范圍。


      參考書目:


      概率論國內(nèi)理工科專業(yè)使用最多的是浙大版的教材:

      《概率論與數(shù)理統(tǒng)計》


      最優(yōu)化方法

      最后要說的是最優(yōu)化,因為幾乎所有機器學習算法歸根到底都是在求解最優(yōu)化問題。求解最優(yōu)化問題的指導思想是在極值點出函數(shù)的導數(shù)/梯度必須為0。因此你必須理解梯度下降法,牛頓法這兩種常用的算法,它們的迭代公式都可以從泰勒展開公式中得到。如果能知道坐標下降法、擬牛頓法就更好了。


      凸優(yōu)化是機器學習中經(jīng)常會提及的一個概念,這是一類特殊的優(yōu)化問題,它的優(yōu)化變量的可行域是凸集,目標函數(shù)是凸函數(shù)。凸優(yōu)化最好的性質(zhì)是它的所有局部最優(yōu)解就是全局最優(yōu)解,因此求解時不會陷入局部最優(yōu)解。如果一個問題被證明為是凸優(yōu)化問題,基本上已經(jīng)宣告此問題得到了解決。在機器學習中,線性回歸、嶺回歸、支持向量機、logistic回歸等很多算法求解的都是凸優(yōu)化問題。


      拉格朗日對偶為帶等式和不等式約束條件的優(yōu)化問題構(gòu)造拉格朗日函數(shù),將其變?yōu)樵瓎栴},這兩個問題是等價的。通過這一步變換,將帶約束條件的問題轉(zhuǎn)換成不帶約束條件的問題。通過變換原始優(yōu)化變量和拉格朗日乘子的優(yōu)化次序,進一步將原問題轉(zhuǎn)換為對偶問題,如果滿足某種條件,原問題和對偶問題是等價的。這種方法的意義在于可以將一個不易于求解的問題轉(zhuǎn)換成更容易求解的問題。在支持向量機中有拉格朗日對偶的應(yīng)用。


      KKT條件是拉格朗日乘數(shù)法對帶不等式約束問題的推廣,它給出了帶等式和不等式約束的優(yōu)化問題在極值點處所必須滿足的條件。在支持向量機中也有它的應(yīng)用。


      如果你沒有學過最優(yōu)化方法這門課也不用擔心,這些方法根據(jù)微積分和線性代數(shù)的基礎(chǔ)知識可以很容易推導出來。如果需要系統(tǒng)的學習這方面的知識,可以閱讀《凸優(yōu)化》,《非線性規(guī)劃》兩本經(jīng)典教材。


      參考書目:


      最優(yōu)化方法可以參考下面兩本經(jīng)典教材:

      Stephen Boyd《凸優(yōu)化》

      Dimitri Bertsekas

      《非線性規(guī)劃》


      各種算法和理論用到的數(shù)學知識


      下面我們來看典型算法和理論結(jié)論所用到的數(shù)學知識:


      除流形學習需要簡單的微分幾何概念之外,深層次的數(shù)學知識如實變函數(shù),泛函分析等主要用在一些基礎(chǔ)理論結(jié)果的證明上,即使不能看懂證明過程,也不影響我們使用具體的機器學習算法。概率圖模型、流形學習中基于圖的模型會用到圖論的一些基本知識,如果學習過離散數(shù)學或者數(shù)據(jù)結(jié)構(gòu),這些概念很容易理解。


      看完這些,你心里的底氣應(yīng)該更足,如果你大學數(shù)學知識還沒有還給老師,為什么還擔心因為數(shù)學而學不好機器學習呢?


      本文為SIGAI原創(chuàng)

        本站是提供個人知識管理的網(wǎng)絡(luò)存儲空間,所有內(nèi)容均由用戶發(fā)布,不代表本站觀點。請注意甄別內(nèi)容中的聯(lián)系方式、誘導購買等信息,謹防詐騙。如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請點擊一鍵舉報。
        轉(zhuǎn)藏 分享 獻花(0

        0條評論

        發(fā)表

        請遵守用戶 評論公約

        類似文章 更多