乡下人产国偷v产偷v自拍,国产午夜片在线观看,婷婷成人亚洲综合国产麻豆,久久综合给合久久狠狠狠9

  • <output id="e9wm2"></output>
    <s id="e9wm2"><nobr id="e9wm2"><ins id="e9wm2"></ins></nobr></s>

    • 分享

      神經(jīng)網(wǎng)絡(luò):簡單數(shù)學(xué)與解釋

       niudp 2018-12-22

      神經(jīng)元/感知

      這是什么?

      答:只是一個簡單的等式

      y=f(∑(x? × W?)+b?)

      • y是預(yù)測
      • f是非線性函數(shù)
      • x?是數(shù)據(jù)點/輸入
      • W?是權(quán)重
      • b0是偏差

      另一種表達方式

      神經(jīng)網(wǎng)絡(luò):簡單數(shù)學(xué)與解釋

      為什么需要這個?

      我們的目標是找到輸入和轉(zhuǎn)換的組合來幫助我們預(yù)測。

      例如,考慮一個分類問題:

      神經(jīng)網(wǎng)絡(luò):簡單數(shù)學(xué)與解釋

      為什么使用偏差?

      一條沒有偏差的線:

      y=mx

      即一條穿過原點的線

      神經(jīng)網(wǎng)絡(luò):簡單數(shù)學(xué)與解釋

      一條有位移沒有偏差的線:

      y=mx+c

      神經(jīng)網(wǎng)絡(luò):簡單數(shù)學(xué)與解釋

      這會幫助你的分類器移動

      f(非線性)如何幫助?

      最常用的激活函數(shù):

      • 線性:

      Y = F(X)= X

      • Sigmoid,Tanh,ReLU

      神經(jīng)網(wǎng)絡(luò):簡單數(shù)學(xué)與解釋

      • Hard-Sigmoid:

      y=f(x)=max(0,min(1,x×0.2+0.5))

      它是sigmoid的近似值。此激活函數(shù)是Keras中RNN的默認激活函數(shù),用于提高速度。

      怎么做?

      答案矩陣代數(shù)

      回顧一下:

      神經(jīng)網(wǎng)絡(luò):簡單數(shù)學(xué)與解釋

      檢查輸出和輸入維度之間的關(guān)系:

      1. (row×midcol)?(midcol×col)=row×col

      神經(jīng)網(wǎng)絡(luò):簡單數(shù)學(xué)與解釋

      神經(jīng)網(wǎng)絡(luò):簡單數(shù)學(xué)與解釋

      檢查維度:

      (1×n)?(n×1)=1×1(1×n)?(n×1)=1×1

      矩陣表示法:

      Y=WX+b

      如果我們應(yīng)用非線性函數(shù):

      Sigmoid:Y =σ(WX + b)

      Tanh:Y = tanh(WX + b)

      MLP:多層感知器

      多個神經(jīng)元在一起

      神經(jīng)網(wǎng)絡(luò):簡單數(shù)學(xué)與解釋

      如何在矩陣中做到這一點?

      神經(jīng)網(wǎng)絡(luò):簡單數(shù)學(xué)與解釋

      檢查維度:

      (1×n)*(n×h)=(1×h)

      h是隱藏的圖層維度

      一種不同的方式

      神經(jīng)網(wǎng)絡(luò):簡單數(shù)學(xué)與解釋

      隱藏層看起來很整潔

      神經(jīng)網(wǎng)絡(luò):簡單數(shù)學(xué)與解釋

      如果我將多個列放在一起怎么辦?

      這就是我們通常做的事情

      神經(jīng)網(wǎng)絡(luò):簡單數(shù)學(xué)與解釋

      b稱為Batch_Size

      相同的Matrix符號:

      Y=f(WX+b)

      因此每個隱藏層都是自己的分類器。我們將多個分類器放在一起

      一個流行的例子

      異或門:

      神經(jīng)網(wǎng)絡(luò):簡單數(shù)學(xué)與解釋

      MLP:

      神經(jīng)網(wǎng)絡(luò):簡單數(shù)學(xué)與解釋

      BTS

      每個神經(jīng)元在數(shù)學(xué)上是具有一些非線性變換的線性平面。該平面存在于n維空間中,其中特征是構(gòu)成維度。

      實際上,每個神經(jīng)元都是分類器(和特征生成器)。神經(jīng)網(wǎng)絡(luò)具有多個這樣的神經(jīng)元,其充當另一神經(jīng)元的輸入。從上面的例子中獲取XOR的神經(jīng)網(wǎng)絡(luò):你會看到兩個分類器(黃線和藍線)。下一個神經(jīng)網(wǎng)絡(luò)使用它們定義的邊界進行推理。

      讓我們看看非線性如何在神經(jīng)網(wǎng)絡(luò)中組合在一起。

      考慮以下兩種情況:

      例1:

      神經(jīng)網(wǎng)絡(luò):簡單數(shù)學(xué)與解釋

      圖1顯示了我們的結(jié)論的例子,即“ 每個神經(jīng)元都是一個分類器 ”。數(shù)據(jù)只需要兩個分類器,這就是模型在圖1中的工作方式。還為每個神經(jīng)元顯示了分類邊界。

      你可以說神經(jīng)網(wǎng)絡(luò)是多個分類器的組合。

      例2:

      神經(jīng)網(wǎng)絡(luò):簡單數(shù)學(xué)與解釋

      圖2顯示了當我們的模型比所需模型更復(fù)雜時會發(fā)生什么。它不會影響性能。但它也會有很多冗余。虛線表示權(quán)重?,F(xiàn)在檢查以下內(nèi)容

      隱藏層1(4個神經(jīng)元):

      • 第一和第二神經(jīng)元與輸入基本相同
      • 第3和第4神經(jīng)元是相同的

      隱藏層2(3個神經(jīng)元):

      • 第3神經(jīng)元在分類中比其他神經(jīng)元更重要(輸出權(quán)重更強)
      • 第三神經(jīng)元主要取決于與輸入相似的那些nurons

      輸入數(shù)據(jù)本身怎么樣?它增加了什么樣的價值?

      以下是兩種情況:

      例3:

      神經(jīng)網(wǎng)絡(luò):簡單數(shù)學(xué)與解釋

      V / S

      例4:

      神經(jīng)網(wǎng)絡(luò):簡單數(shù)學(xué)與解釋

      如果擁有相關(guān)功能,網(wǎng)絡(luò)將能夠更好地進行分類。

      我相信很多人會對此不以為然。事實上,行業(yè)走向深度學(xué)習(xí)的一個重要原因是它為您執(zhí)行特征提取。這也是我的觀點; 如果您已經(jīng)知道哪些輸入是好的,請使用它來使模型更快地學(xué)習(xí)。

        本站是提供個人知識管理的網(wǎng)絡(luò)存儲空間,所有內(nèi)容均由用戶發(fā)布,不代表本站觀點。請注意甄別內(nèi)容中的聯(lián)系方式、誘導(dǎo)購買等信息,謹防詐騙。如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請點擊一鍵舉報。
        轉(zhuǎn)藏 分享 獻花(0

        0條評論

        發(fā)表

        請遵守用戶 評論公約

        類似文章 更多