乡下人产国偷v产偷v自拍,国产午夜片在线观看,婷婷成人亚洲综合国产麻豆,久久综合给合久久狠狠狠9

  • <output id="e9wm2"></output>
    <s id="e9wm2"><nobr id="e9wm2"><ins id="e9wm2"></ins></nobr></s>

    • 分享

      【T】排序

       追著天使拔毛 2019-10-15

      1. 問(wèn)題

          真實(shí)的訓(xùn)練數(shù)據(jù)總是存在各種各樣的問(wèn)題:

      1比如拿到一個(gè)汽車的樣本,里面既有以“千米/每小時(shí)”度量的最大速度特征,也有“英里/小時(shí)”的最大速度特征,顯然這兩個(gè)特征有一個(gè)多余。

      2拿到一個(gè)數(shù)學(xué)系的本科生期末考試成績(jī)單,里面有三列,一列是對(duì)數(shù)學(xué)的興趣程度,一列是復(fù)習(xí)時(shí)間,還有一列是考試成績(jī)。我們知道要學(xué)好數(shù)學(xué),需要有濃厚的興趣,所以第二項(xiàng)與第一項(xiàng)強(qiáng)相關(guān),第三項(xiàng)和第二項(xiàng)也是強(qiáng)相關(guān)。那是不是可以合并第一項(xiàng)和第二項(xiàng)呢?

      3、拿到一個(gè)樣本,特征非常多,而樣例特別少,這樣用回歸去直接擬合非常困難,容易過(guò)度擬合。比如北京的房?jī)r(jià):假設(shè)房子的特征是(大小、位置、朝向、是否學(xué)區(qū)房、建造年代、是否二手、層數(shù)、所在層數(shù)),搞了這么多特征,結(jié)果只有不到十個(gè)房子的樣例。要擬合房子特征->房?jī)r(jià)的這么多特征,就會(huì)造成過(guò)度擬合。

      4這個(gè)與第二個(gè)有點(diǎn)類似,假設(shè)在IR中我們建立的文檔-詞項(xiàng)矩陣中,有兩個(gè)詞項(xiàng)為“learn”和“study”,在傳統(tǒng)的向量空間模型中,認(rèn)為兩者獨(dú)立。然而從語(yǔ)義的角度來(lái)講,兩者是相似的,而且兩者出現(xiàn)頻率也類似,是不是可以合成為一個(gè)特征呢?

      5、在信號(hào)傳輸過(guò)程中,由于信道不是理想的,信道另一端收到的信號(hào)會(huì)有噪音擾動(dòng),那么怎么濾去這些噪音呢?

          回顧我們之前介紹的《模型選擇和規(guī)則化》,里面談到的特征選擇的問(wèn)題。但在那篇中要剔除的特征主要是和類標(biāo)簽無(wú)關(guān)的特征。比如“學(xué)生的名字”就和他的“成績(jī)”無(wú)關(guān),使用的是互信息的方法。

          而這里的特征很多是和類標(biāo)簽有關(guān)的,但里面存在噪聲或者冗余。在這種情況下,需要一種特征降維的方法來(lái)減少特征數(shù),減少噪音和冗余,減少過(guò)度擬合的可能性。說(shuō)白了,就是一系列樣品樣品里面有很多個(gè)值,看其中哪個(gè)值在里面占主導(dǎo)地位,也就是主要的成分,當(dāng)然這個(gè)值不是僅僅根據(jù)數(shù)值的大小,而是在不同樣品中的變化度,在不同樣品中變化越大,說(shuō)明這個(gè)值就越能體現(xiàn)樣品的不同,反之,如果所有樣品中,某個(gè)變量變化不大,則可以排除這個(gè)變量在不同樣品中的分量,所以在不同樣品中變化越大的那個(gè)變量,我們就叫做主要的成分。

          下面探討一種稱作主成分分析(PCA)的方法來(lái)解決部分上述問(wèn)題。PCA的思想是將n維特征映射到k維上(k),這k維是全新的正交特征。這k維特征稱為主元,是重新構(gòu)造出來(lái)的k維特征,而不是簡(jiǎn)單地從n維特征中去除其余n-k維特征。

      主成分分析(或稱主分量分析,principal component analysis)由皮爾遜(Pearson,1901)首先引入,后來(lái)被霍特林(Hotelling,1933)發(fā)展了。

      主成分分析是一種通過(guò)降維技術(shù)把多個(gè)變量化為少數(shù)幾個(gè)主成分(即綜合變量)的統(tǒng)計(jì)分析方法。這些主成分能夠反映原始變量的絕大部分信息,它們通常表示為原始變量的某種線性組合。

      主成分分析的一般目的是:

              (1)變量的降維;

              (2)主成分的解釋。

      一種統(tǒng)計(jì)方法,它對(duì)多變量表示數(shù)據(jù)點(diǎn)集合尋找盡可能少的正交矢量表征數(shù)據(jù)信息特征。將多個(gè)變量通過(guò)線性變換以選出較少個(gè)數(shù)重要變量的一種多元統(tǒng)計(jì)分析方法。又稱主分量分析。在實(shí)際課題中,為了全面分析問(wèn)題,往往提出很多與此有關(guān)的變量(或因素),因?yàn)槊總€(gè)變量都在不同程度上反映這個(gè)課題的某些信息。主成分分析首先是由K.皮爾森對(duì)非隨機(jī)變量引入的,爾后H.霍特林將此方法推廣到隨機(jī)向量的情形。信息的大小通常用離差平方和或方差來(lái)衡量。

      基本思想

        主成分分析是設(shè)法將原來(lái)眾多具有一定相關(guān)性(比如P個(gè)指標(biāo)),重新組合成一組新的互相無(wú)關(guān)的綜合指標(biāo)來(lái)代替原來(lái)的指標(biāo)。主成分分析,是考察多個(gè)變量間相關(guān)性一種多元統(tǒng)計(jì)方法,研究如何通過(guò)少數(shù)幾個(gè)主成分來(lái)揭示多個(gè)變量間的內(nèi)部結(jié)構(gòu),即從原始變量中導(dǎo)出少數(shù)幾個(gè)主成分,使它們盡可能多地保留原始變量的信息,且彼此間互不相關(guān).通常數(shù)學(xué)上的處理就是將原來(lái)P個(gè)指標(biāo)作線性組合,作為新的綜合指標(biāo)。最經(jīng)典的做法就是用F1(選取的第一個(gè)線性組合,即第一個(gè)綜合指標(biāo))的方差來(lái)表達(dá),即Var(F1)越大,表示F1包含的信息越多。因此在所有的線性組合中選取的F1應(yīng)該是方差最大的,故稱F1為第一主成分。如果第一主成分不足以代表原來(lái)P個(gè)指標(biāo)的信息,再考慮選取F2即選第二個(gè)線性組合,為了有效地反映原來(lái)信息,F1已有的信息就不需要再出現(xiàn)在F2中,用數(shù)學(xué)語(yǔ)言表達(dá)就是要求Cov(F1, F2)=0,則稱F2為第二主成分,依此類推可以構(gòu)造出第三、第四,……,第P個(gè)主成分。

      PCA計(jì)算過(guò)程

      首先介紹PCA的計(jì)算過(guò)程:

          假設(shè)我們得到的2維數(shù)據(jù)如下:

      【T】排序--1--PCA主成分分析principal <wbr>component <wbr>analysis

      行代表了樣例,列代表特征,這里有10個(gè)樣例,每個(gè)樣例兩個(gè)特征。可以這樣認(rèn)為,有10篇文檔,x10篇文檔中“learn”出現(xiàn)的TF-IDFy10篇文檔中“study”出現(xiàn)的TF-IDF。也可以認(rèn)為有10輛汽車,x是千米/小時(shí)的速度,y是英里/小時(shí)的速度,等等。

      注意,這里是10個(gè)樣本,每個(gè)樣本都是包含兩個(gè)變量,現(xiàn)在是看哪個(gè)變量對(duì)樣本的影響更大

      第一步分別求xy的平均值,然后對(duì)于所有的樣例,都減去對(duì)應(yīng)的均值。這里x的均值是1.81,y的均值是1.91,那么一個(gè)樣例減去均值后即為(0.69,0.49),得到

      【T】排序--1--PCA主成分分析principal <wbr>component <wbr>analysis

      第二步,求特征協(xié)方差矩陣,如果數(shù)據(jù)是3維,那么協(xié)方差矩陣是

      【T】排序--1--PCA主成分分析principal <wbr>component <wbr>analysis

      方差是各個(gè)數(shù)據(jù)與平均數(shù)之差的平方的平均數(shù)。協(xié)方差(Covariance)在概率論和統(tǒng)計(jì)學(xué)中用于衡量?jī)蓚€(gè)變量的總體誤差【T】排序--1--PCA主成分分析principal <wbr>component <wbr>analysis。其中E代表平均值,u,v分別是X,Y的平均值。

      這里只有xy,求解得

      【T】排序--1--PCA主成分分析principal <wbr>component <wbr>analysis

      對(duì)角線上分別是xy的方差,非對(duì)角線上是協(xié)方差。協(xié)方差大于0表示xy若有一個(gè)增,另一個(gè)也增;小于0表示一個(gè)增,一個(gè)減;協(xié)方差為0時(shí),兩者獨(dú)立。協(xié)方差絕對(duì)值越大,兩者對(duì)彼此的影響越大,反之越小。

      第三步,求協(xié)方差的特征值和特征向量,得到

      【T】排序--1--PCA主成分分析principal <wbr>component <wbr>analysis

      上面是兩個(gè)特征值,下面是對(duì)應(yīng)的特征向量,特征值0.0490833989對(duì)應(yīng)特征向量為(-735178656,0.677873399T,這里的特征向量都?xì)w一化為單位向量。

           從定義出發(fā)Ax=cxA為矩陣,c為特征值,x為特征向量。在線性變換A的作用下,向量x僅僅在尺度上變?yōu)樵瓉?lái)的c倍。稱x 是線性變換A 的一個(gè)特征向量,c是對(duì)應(yīng)的特征值。

            第四步,將特征值按照從大到小的順序排序,選擇其中最大的k個(gè),然后將其對(duì)應(yīng)的k個(gè)特征向量分別作為列向量組成特征向量矩陣。

          這里特征值只有兩個(gè),我們選擇其中最大的那個(gè),這里是1.28402771,對(duì)應(yīng)的特征向量是(-0.677873399,-0.735178656T.

         第五步,將樣本點(diǎn)投影到選取的特征向量上

      假設(shè)樣例數(shù)為m,特征數(shù)為n,減去均值后的樣本矩陣為DataAdjust(m*n),協(xié)方差矩陣是n*n,選取的k個(gè)特征向量組成的矩陣為EigenVectors(n*k)。那么投影后的數(shù)據(jù)FinalData

      【T】排序--1--PCA主成分分析principal <wbr>component <wbr>analysis

        這里是

          FinalData(10*1) = DataAdjust(10*2矩陣)×特征向量(-0.677873399,-0.735178656T

      得到結(jié)果是

      【T】排序--1--PCA主成分分析principal <wbr>component <wbr>analysis

      這樣,就將原始樣例的n維特征變成了k維,這k維就是原始特征在k維上的投影。

          上面的數(shù)據(jù)可以認(rèn)為是learnstudy特征融合為一個(gè)新的特征叫做LS特征,該特征基本上代表了這兩個(gè)特征。

          上述過(guò)程有個(gè)圖描述:

      【T】排序--1--PCA主成分分析principal <wbr>component <wbr>analysis

      正號(hào)表示減去平均值后的樣本點(diǎn),斜著的兩條線就分別是正交的特征向量(由于協(xié)方差矩陣是對(duì)稱的,因此其特征向量正交),最后一步的矩陣乘法就是將原始樣本點(diǎn)分別往特征向量對(duì)應(yīng)的軸上做投影。

          如果取的k=2,那么結(jié)果是

      【T】排序--1--PCA主成分分析principal <wbr>component <wbr>analysis

      這就是經(jīng)過(guò)PCA處理后的樣本數(shù)據(jù),水平軸(上面舉例為LS特征)基本上可以代表全部樣本點(diǎn)。整個(gè)過(guò)程看起來(lái)就像將坐標(biāo)系做了旋轉(zhuǎn),當(dāng)然二維可以圖形化表示,高維就不行了。上面的如果k=1,那么只會(huì)留下這里的水平軸,軸上是所有點(diǎn)在該軸的投影。

      這樣PCA的過(guò)程基本結(jié)束。在第一步減均值之后,其實(shí)應(yīng)該還有一步對(duì)特征做方差歸一化。比如一個(gè)特征是汽車速度(0100),一個(gè)是汽車的座位數(shù)(26),顯然第二個(gè)的方差比第一個(gè)小。因此,如果樣本特征中存在這種情況,那么在第一步之后,求每個(gè)特征的標(biāo)準(zhǔn)差clip_image016[6],然后對(duì)每個(gè)樣例在該特征下的數(shù)據(jù)除以clip_image016[7]。

      歸納一下,使用我們之前熟悉的表示方法,在求協(xié)方差之前的步驟是

      其中X(i)是樣例,共m個(gè),每個(gè)樣【T】排序--1--PCA主成分分析principal <wbr>component <wbr>analysisn個(gè)特征,也就是說(shuō)X(i)n維向量。Xj(i)是第i個(gè)樣例的第j個(gè)特征。u是樣例均值。是第oj個(gè)特征的標(biāo)準(zhǔn)差。

       整個(gè)PCA過(guò)程貌似及其簡(jiǎn)單,就是求協(xié)方差的特征值和特征向量,然后做數(shù)據(jù)轉(zhuǎn)換。但是有沒(méi)有覺(jué)得很神奇,為什么求協(xié)方差的特征向量就是最理想的k維向量?其背后隱藏的意義是什么?整個(gè)PCA的意義是什么?

      3. PCA理論基礎(chǔ)

      要解釋為什么協(xié)方差矩陣的特征向量就是k維理想特征,我看到的有三個(gè)理論:分別是最大方差理論、最小錯(cuò)誤理論和坐標(biāo)軸相關(guān)度理論。這里簡(jiǎn)單探討前兩種,最后一種在討論PCA意義時(shí)簡(jiǎn)單概述。3.1最大方差理論

      在信號(hào)處理中認(rèn)為信號(hào)具有較大的方差,噪聲有較小的方差,信噪比就是信號(hào)與噪聲的方差比,越大越好。如前面的圖,樣本在橫軸上的投影方差較大,在縱軸上的投影方差較小,那么認(rèn)為縱軸上的投影是由噪聲引起的。

      因此我們認(rèn)為,最好的k維特征是將n維樣本點(diǎn)轉(zhuǎn)換為k維后,每一維上的樣本方差都很大。

       比如下圖有5個(gè)樣本點(diǎn):(已經(jīng)做過(guò)預(yù)處理,均值為0,特征方差歸一)

      【T】排序--1--PCA主成分分析principal <wbr>component <wbr>analysis

      下面將樣本投影到某一維上,這里用一條過(guò)原點(diǎn)的直線表示(前處理的過(guò)程實(shí)質(zhì)是將原點(diǎn)移到樣本點(diǎn)的中心點(diǎn))。

      【T】排序--1--PCA主成分分析principal <wbr>component <wbr>analysis

      假設(shè)我們選擇兩條不同的直線做投影,那么左右兩條中哪個(gè)好呢?根據(jù)我們之前的方差最大化理論,左邊的好,因?yàn)橥队昂蟮臉颖军c(diǎn)之間方差最大。

      這里先解釋一下投影的概念:

      【T】排序--1--PCA主成分分析principal <wbr>component <wbr>analysis

      紅色點(diǎn)表示樣例X(i),藍(lán)色點(diǎn)表示X(i)u上的投影,u是直線的斜率也是直線的方向向量,而且是單位向量。藍(lán)色點(diǎn)是X(i)u上的投影點(diǎn),離原點(diǎn)的距離是X(i)Tu。由于這些樣本點(diǎn)(樣例)的每一維特征均值都為0,因此投影到u上的樣本點(diǎn)(只有一個(gè)到原點(diǎn)的距離值)的均值仍然是0

          回到上面左右圖中的左圖,我們要求的是最佳的u,使得投影后的樣本點(diǎn)方差最大。

          由于投影后均值為0,因此方差為:

       【T】排序--1--PCA主成分分析principal <wbr>component <wbr>analysis

      旋轉(zhuǎn)公式:

      【T】排序--1--PCA主成分分析principal <wbr>component <wbr>analysis


      一、主成分的定義及導(dǎo)出

       【T】排序--1--PCA主成分分析principal <wbr>component <wbr>analysis

      總方差中屬于第i主成分yi(或被yi所解釋)的比例為

      【T】排序--1--PCA主成分分析principal <wbr>component <wbr>analysis稱為主成分yi的貢獻(xiàn)率。λ為特征值

      第一主成分y1的貢獻(xiàn)率最大,表明它解釋原始變量x1,x2,?,xp的能力最強(qiáng),而y2,y3, ?,yp的解釋能力依次遞減。

      主成分分析的目的就是為了減少變量的個(gè)數(shù),因而一般是不會(huì)使用所有p個(gè)主成分的,忽略一些帶有較小方差的主成分將不會(huì)給總方差帶來(lái)大的影響

      參考資料:

      夕嵐一瞥 http://blog.sina.com.cn/s/blog_60f9c005010152r5.html

      jacobyuan 博客  http://jacobyuan.blog.sohu.com/148317731.html

      JerryLead 博客 http://www.cnblogs.com/jerrylead/archive/2011/04/18/2020209.html(超贊的)

      http://astrowww./sites/Computational_Astronomy/html/6shijian/chengguo/2008學(xué)生/pca-姜晨.pdf

      http://www./department/management/stat/ch_web/etea/SPSS/Applied_Multivariate_Data_Analysis_ch6.pdf

        本站是提供個(gè)人知識(shí)管理的網(wǎng)絡(luò)存儲(chǔ)空間,所有內(nèi)容均由用戶發(fā)布,不代表本站觀點(diǎn)。請(qǐng)注意甄別內(nèi)容中的聯(lián)系方式、誘導(dǎo)購(gòu)買等信息,謹(jǐn)防詐騙。如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請(qǐng)點(diǎn)擊一鍵舉報(bào)。
        轉(zhuǎn)藏 分享 獻(xiàn)花(0

        0條評(píng)論

        發(fā)表

        請(qǐng)遵守用戶 評(píng)論公約

        類似文章 更多