乡下人产国偷v产偷v自拍,国产午夜片在线观看,婷婷成人亚洲综合国产麻豆,久久综合给合久久狠狠狠9

  • <output id="e9wm2"></output>
    <s id="e9wm2"><nobr id="e9wm2"><ins id="e9wm2"></ins></nobr></s>

    • 分享

      使用Python進(jìn)行異常檢測(cè)

       丹楓無跡 2022-10-19 發(fā)布于北京

      作者|Rashida Nasrin Sucky
      編譯|VK
      來源|Towards Datas Science

      異常檢測(cè)可以作為異常值分析的一項(xiàng)統(tǒng)計(jì)任務(wù)來處理。但是如果我們開發(fā)一個(gè)機(jī)器學(xué)習(xí)模型,它可以像往常一樣自動(dòng)化,可以節(jié)省很多時(shí)間。

      異常檢測(cè)有很多用例。信用卡欺詐檢測(cè)、故障機(jī)器檢測(cè)或基于異常特征的硬件系統(tǒng)檢測(cè)、基于醫(yī)療記錄的疾病檢測(cè)都是很好的例子。還有更多的用例。異常檢測(cè)的應(yīng)用只會(huì)越來越多。

      在本文中,我將解釋在Python中從頭開始開發(fā)異常檢測(cè)算法的過程。

      公式和過程

      與我之前解釋過的其他機(jī)器學(xué)習(xí)算法相比,這要簡(jiǎn)單得多。該算法將使用均值和方差來計(jì)算每個(gè)訓(xùn)練數(shù)據(jù)的概率。

      如果一個(gè)訓(xùn)練實(shí)例的概率很高,這是正常的。如果某個(gè)訓(xùn)練實(shí)例的概率很低,那就是一個(gè)異常的例子。對(duì)于不同的訓(xùn)練集,高概率和低概率的定義是不同的。我們以后再討論。

      如果我要解釋異常檢測(cè)的工作過程,這很簡(jiǎn)單。

      1. 使用以下公式計(jì)算平均值:

      這里m是數(shù)據(jù)集的長(zhǎng)度或訓(xùn)練數(shù)據(jù)的數(shù)量,而\(x^i\)是一個(gè)單獨(dú)的訓(xùn)練例子。如果你有多個(gè)訓(xùn)練特征,大多數(shù)情況下都需要計(jì)算每個(gè)特征能的平均值。

      1. 使用以下公式計(jì)算方差:

      這里,mu是上一步計(jì)算的平均值。

      1. 現(xiàn)在,用這個(gè)概率公式計(jì)算每個(gè)訓(xùn)練例子的概率。

      不要被這個(gè)公式中的求和符號(hào)弄糊涂了!這實(shí)際上是Sigma代表方差。

      稍后我們將實(shí)現(xiàn)該算法時(shí),你將看到它的樣子。

      1. 我們現(xiàn)在需要找到概率的臨界值。正如我前面提到的,如果一個(gè)訓(xùn)練例子的概率很低,那就是一個(gè)異常的例子。

      低概率有多大?

      這沒有普遍的限制。我們需要為我們的訓(xùn)練數(shù)據(jù)集找出這個(gè)。

      我們從步驟3中得到的輸出中獲取一系列概率值。對(duì)于每個(gè)概率,通過閾值的設(shè)置得到數(shù)據(jù)是否異常

      然后計(jì)算一系列概率的精確度、召回率和f1分?jǐn)?shù)。

      精度可使用以下公式計(jì)算

      召回率的計(jì)算公式如下:

      在這里,True positives(真正例)是指算法檢測(cè)到一個(gè)異常的例子的數(shù)量,而它真實(shí)情況也是一個(gè)異常。

      False Positives(假正例)當(dāng)算法檢測(cè)到一個(gè)異常的例子,但在實(shí)際情況中,它不是異常的,就會(huì)出現(xiàn)誤報(bào)。

      False Negative(假反例)是指算法檢測(cè)到的一個(gè)例子不是異常的,但實(shí)際上它是一個(gè)異常的例子。

      從上面的公式你可以看出,更高的精確度和更高的召回率總是好的,因?yàn)檫@意味著我們有更多的真正的正例。但同時(shí),假正例和假反例起著至關(guān)重要的作用,正如你在公式中看到的那樣。這需要一個(gè)平衡點(diǎn)。根據(jù)你的行業(yè),你需要決定哪一個(gè)對(duì)你來說是可以忍受的。

      一個(gè)好辦法是取平均數(shù)。計(jì)算平均值有一個(gè)獨(dú)特的公式。這就是f1分?jǐn)?shù)。f1得分公式為:

      這里,P和R分別表示精確性和召回率。

      我不想詳細(xì)說明為什么這個(gè)公式如此獨(dú)特。因?yàn)檫@篇文章是關(guān)于異常檢測(cè)的。如果你對(duì)這篇文章更感興趣的話,可以查看:https:///a-complete-understanding-of-precision-recall-and-f-score-concepts-23dc44defef6

      根據(jù)f1分?jǐn)?shù),你需要選擇你的閾值概率。

      異常檢測(cè)算法

      我將使用Andrew Ng的機(jī)器學(xué)習(xí)課程的數(shù)據(jù)集,它具有兩個(gè)訓(xùn)練特征。我沒有在本文中使用真實(shí)的數(shù)據(jù)集,因?yàn)檫@個(gè)數(shù)據(jù)集非常適合學(xué)習(xí)。它只有兩個(gè)特征。在任何真實(shí)的數(shù)據(jù)集中,都不可能只有兩個(gè)特征。

      有兩個(gè)特性的好處是可以可視化數(shù)據(jù),這對(duì)學(xué)習(xí)者非常有用。請(qǐng)隨意從該鏈接下載數(shù)據(jù)集,然后繼續(xù):

      https://github.com/rashida048/Machine-Learning-With-Python/blob/master/ex8data1.xlsx

      首先,導(dǎo)入必要的包

      import pandas as pd 
      import numpy as np
      

      導(dǎo)入數(shù)據(jù)集。這是一個(gè)excel數(shù)據(jù)集。在這里,訓(xùn)練數(shù)據(jù)和交叉驗(yàn)證數(shù)據(jù)存儲(chǔ)在單獨(dú)的表中。所以,讓我們把訓(xùn)練數(shù)據(jù)帶來。

      df = pd.read_excel('ex8data1.xlsx', sheet_name='X', header=None)
      df.head()
      

      讓我們將第0列與第1列進(jìn)行比較。

      plt.figure()
      plt.scatter(df[0], df[1])
      plt.show()
      

      你可能通過看這張圖知道哪些數(shù)據(jù)是異常的。

      檢查此數(shù)據(jù)集中有多少個(gè)訓(xùn)練示例:

      m = len(df)
      

      計(jì)算每個(gè)特征的平均值。這里我們只有兩個(gè)特征:0和1。

      s = np.sum(df, axis=0)
      mu = s/m
      mu
      

      輸出:

      0    14.112226
      1    14.997711
      dtype: float64
      

      根據(jù)上面“公式和過程”部分中描述的公式,讓我們計(jì)算方差:

      vr = np.sum((df - mu)**2, axis=0)
      variance = vr/m
      variance
      

      輸出:

      0    1.832631
      1    1.709745
      dtype: float64
      

      現(xiàn)在把它做成對(duì)角線形狀。正如我在概率公式后面的“公式和過程”一節(jié)中所解釋的,求和符號(hào)實(shí)際上是方差

      var_dia = np.diag(variance)
      var_dia
      

      輸出:

      array([[1.83263141, 0.        ],
             [0.        , 1.70974533]])
      

      計(jì)算概率:

      k = len(mu)
      X = df - mu
      p = 1/((2*np.pi)**(k/2)*(np.linalg.det(var_dia)**0.5))* np.exp(-0.5* np.sum(X @ np.linalg.pinv(var_dia) * X,axis=1))
      p
      

      訓(xùn)練部分已經(jīng)完成。

      下一步是找出閾值概率。如果概率低于閾值概率,則示例數(shù)據(jù)為異常數(shù)據(jù)。但我們需要為我們的特殊情況找出那個(gè)閾值。

      對(duì)于這一步,我們使用交叉驗(yàn)證數(shù)據(jù)和標(biāo)簽。

      對(duì)于你的案例,你只需保留一部分原始數(shù)據(jù)以進(jìn)行交叉驗(yàn)證。

      現(xiàn)在導(dǎo)入交叉驗(yàn)證數(shù)據(jù)和標(biāo)簽:

      cvx = pd.read_excel('ex8data1.xlsx', sheet_name='Xval', header=None)
      cvx.head()
      

      標(biāo)簽如下:

      cvy = pd.read_excel('ex8data1.xlsx', sheet_name='y', header=None)
      cvy.head()
      

      我將把'cvy'轉(zhuǎn)換成NumPy數(shù)組,因?yàn)槲蚁矚g使用數(shù)組。不過,數(shù)據(jù)幀也不錯(cuò)。

      y = np.array(cvy)
      

      輸出:

      # 數(shù)組的一部分
      array([[0],
             [0],
             [0],
             [0],
             [0],
             [0],
             [0],
             [0],
             [0],
      

      這里,y值0表示這是一個(gè)正常的例子,y值1表示這是一個(gè)異常的例子。

      現(xiàn)在,如何選擇一個(gè)閾值?

      我不想只檢查概率表中的所有概率。這可能是不必要的。讓我們?cè)贆z查一下概率值。

      p.describe()
      

      輸出:

      count    3.070000e+02
      mean     5.905331e-02
      std      2.324461e-02
      min      1.181209e-23
      25%      4.361075e-02
      50%      6.510144e-02
      75%      7.849532e-02
      max      8.986095e-02
      dtype: float64
      

      如圖所示,我們沒有太多異常數(shù)據(jù)。所以,如果我們從75%的值開始,這應(yīng)該是好的。但為了安全起見,我會(huì)從平均值開始。

      因此,我們將從平均值和更低的概率范圍。我們將檢查這個(gè)范圍內(nèi)每個(gè)概率的f1分?jǐn)?shù)。

      首先,定義一個(gè)函數(shù)來計(jì)算真正例、假正例和假反例:

      def tpfpfn(ep):
          tp, fp, fn = 0, 0, 0
          for i in range(len(y)):
              if p[i] <= ep and y[i][0] == 1:
                  tp += 1
              elif p[i] <= ep and y[i][0] == 0:
                  fp += 1
              elif p[i] > ep and y[i][0] == 1:
                  fn += 1
          return tp, fp, fn
      

      列出低于或等于平均概率的概率。

      eps = [i for i in p if i <= p.mean()]
      

      檢查一下列表的長(zhǎng)度

      len(eps)
      

      輸出:

      133
      

      根據(jù)前面討論的公式定義一個(gè)計(jì)算f1分?jǐn)?shù)的函數(shù):

      def f1(ep):
          tp, fp, fn = tpfpfn(ep)
          prec = tp/(tp + fp)
          rec = tp/(tp + fn)
          f1 = 2*prec*rec/(prec + rec)
          return f1
      

      所有函數(shù)都準(zhǔn)備好了!

      現(xiàn)在計(jì)算所有epsilon或我們之前選擇的概率值范圍的f1分?jǐn)?shù)。

      f = []
      for i in eps:
          f.append(f1(i))
      f
      

      輸出:

      [0.14285714285714285,
       0.14035087719298248,
       0.1927710843373494,
       0.1568627450980392,
       0.208955223880597,
       0.41379310344827586,
       0.15517241379310345,
       0.28571428571428575,
       0.19444444444444445,
       0.5217391304347826,
       0.19718309859154928,
       0.19753086419753085,
       0.29268292682926833,
       0.14545454545454545,
      

      這是f分?jǐn)?shù)表的一部分。長(zhǎng)度應(yīng)該是133。

      f分?jǐn)?shù)通常在0到1之間,其中f1得分越高越好。所以,我們需要從剛才計(jì)算的f分?jǐn)?shù)列表中取f的最高分?jǐn)?shù)。

      現(xiàn)在,使用“argmax”函數(shù)來確定f分?jǐn)?shù)值最大值的索引。

      np.array(f).argmax()
      

      輸出:

      131
      

      現(xiàn)在用這個(gè)索引來得到閾值概率。

      e = eps[131]
      e
      

      輸出:

      6.107184445968581e-05
      

      找出異常實(shí)例

      我們有臨界概率。我們可以從中找出我們訓(xùn)練數(shù)據(jù)的標(biāo)簽。

      如果概率值小于或等于該閾值,則數(shù)據(jù)為異常數(shù)據(jù),否則為正常數(shù)據(jù)。我們將正常數(shù)據(jù)和異常數(shù)據(jù)分別表示為0和1,

      label = []
      for i in range(len(df)):
          if p[i] <= e:
              label.append(1)
          else:
              label.append(0)
      label
      

      輸出:

      [0,
       0,
       0,
       0,
       0,
       0,
       0,
       0,
       0,
       0,
      

      這是標(biāo)簽列表的一部分。

      我將在上面的訓(xùn)練數(shù)據(jù)集中添加此計(jì)算標(biāo)簽:

      df['label'] = np.array(label)
      df.head()
      

      我在標(biāo)簽為1的地方用紅色繪制數(shù)據(jù),在標(biāo)簽為0的地方用黑色繪制。以下是結(jié)果。

      有道理嗎?

      是的,對(duì)吧?紅色的數(shù)據(jù)明顯異常。

      結(jié)論

      我試圖一步一步地解釋開發(fā)異常檢測(cè)算法的過程,我希望這是可以理解的。如果你僅僅通過閱讀就無法理解,我建議你運(yùn)行每一段代碼。那就很清楚了。

      原文鏈接:https:///a-complete-anomaly-detection-algorithm-from-scratch-in-python-step-by-step-guide-e1daf870336e

      歡迎關(guān)注磐創(chuàng)AI博客站:
      http:///

      sklearn機(jī)器學(xué)習(xí)中文官方文檔:
      http:///

      歡迎關(guān)注磐創(chuàng)博客資源匯總站:
      http://docs./

        本站是提供個(gè)人知識(shí)管理的網(wǎng)絡(luò)存儲(chǔ)空間,所有內(nèi)容均由用戶發(fā)布,不代表本站觀點(diǎn)。請(qǐng)注意甄別內(nèi)容中的聯(lián)系方式、誘導(dǎo)購(gòu)買等信息,謹(jǐn)防詐騙。如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請(qǐng)點(diǎn)擊一鍵舉報(bào)。
        轉(zhuǎn)藏 分享 獻(xiàn)花(0

        0條評(píng)論

        發(fā)表

        請(qǐng)遵守用戶 評(píng)論公約

        類似文章 更多