乡下人产国偷v产偷v自拍,国产午夜片在线观看,婷婷成人亚洲综合国产麻豆,久久综合给合久久狠狠狠9

  • <output id="e9wm2"></output>
    <s id="e9wm2"><nobr id="e9wm2"><ins id="e9wm2"></ins></nobr></s>

    • 分享

      TensorFlow常用API | 天空的城

       imelee 2017-05-26
      文章目錄
      1. 軸(axis)
      2. tf.slice

      越來越感覺學(xué)習(xí)python一個第三方庫就跟學(xué)一門新語言差不多,龐大的TensorFlow更是如此。這篇博客會持續(xù)記錄關(guān)于tensorflow的一些api的用法。

      軸(axis)

      在tensorflow中,最基本的變量或者常量都是tensor類型,說直接點(diǎn)就是多維數(shù)組,因此涉及到了很多在某一個維度上操作的API,比如tf.reduce_*()tf_arg*(),tf_expand_dims()等,這些基本的API都有一個共同的參數(shù):axis=,也就說這些操作都是哪些維度(軸)上做運(yùn)算,除了在tf中,在numpy里面也有這一參數(shù),之前一直是一知半解。現(xiàn)在總結(jié)一下這個axis,由于numpy與tensorflow的axis基本一樣,因此下面以numpy為例。

      首先可以從多維數(shù)組(tensor)的shape來得到數(shù)組的維度: d=len(array.shape):

      1
      2
      3
      4
      5
      In [2]: a = np.array([[1,2,3],[4,5,6]])
      In [3]: a.shape
      Out[3]: (2, 3)
      In [4]: len(a.shape)
      Out[4]: 2

      也就是說上述的數(shù)組a的shape為(2,3),維度是2維,也就是有兩層嵌套數(shù)組,看看有多少層[],因此axis的取值只能為0,1,下面以sum為例,看看不同的axis的結(jié)果:

      1
      2
      3
      4
      5
      6
      7
      8
      In [5]: np.sum(a)
      Out[5]: 21
      In [6]: np.sum(a,axis=0)
      Out[6]: array([5, 7, 9])
      In [7]: np.sum(a,axis=1)
      Out[7]: array([ 6, 15])

      一個一個的說明。首先需要明白操作的對象是誰?這這個例子中,就是那些元素相加。怎么來確定是哪些元素呢?個人使用的原則是:

      對原來數(shù)組去掉axis+1層嵌套([]),對剩下的元素再分組進(jìn)行相應(yīng)的操作。

      首先如果不加axis參數(shù),則默認(rèn)對所有元素直接做sum操作,因此結(jié)果就是21。當(dāng)axis=0的時候, 相加的對象,則是變成了[1,2,3]+[4,5,6],按照上面的原則,a去掉一層嵌套,也就是[]之后,變?yōu)? [1,2,3],[4,5,6] 那么sum的對象: [1,2,3]+[4,5,6]=[5,7,9]。 再接著看axis=1,這時候需要去掉兩層嵌套,去掉第一層變?yōu)?[1,2,3], [4,5,6],去掉第二層嵌套,剩下了1,2,34,5,6兩個組,因此兩個組內(nèi)各個相加即可,得到的最終的結(jié)果為:[6,15]。 下面以同樣的思路,計算最小值:

      1
      2
      3
      4
      5
      6
      7
      8
      In [3]: np.min(a)
      Out[3]: 1
      In [4]: np.min(a, axis=0)
      Out[4]: array([1, 2, 3])
      In [5]: np.min(a, axis=1)
      Out[5]: array([1, 4])

      有一個稍微特殊的是expand_dims 這個是擴(kuò)展維度。對于這個api它的axis沒有上限約束,不過當(dāng)所有的元素自成一個列表之后,不再變化。它的axis參數(shù)不一樣的地方,是在axis的位置加入新的一個軸,也就是說此時對原數(shù)組去掉axis層嵌套,而非axis+1層,然后再對每組進(jìn)行加一個軸,看例子:

      1
      2
      3
      4
      5
      6
      7
      8
      9
      10
      11
      12
      13
      14
      15
      16
      17
      18
      19
      20
      21
      22
      23
      24
      In [25]: a
      Out[25]:
      array([[1, 2, 3],
      [4, 5, 6]])
      In [26]: np.expand_dims(a, axis=0) # 新加的軸為第0軸
      Out[26]:
      array([[[1, 2, 3],
      [4, 5, 6]]])
      In [27]: np.expand_dims(a, axis=1)# 新加的軸為第1層
      Out[27]:
      array([[[1, 2, 3]],
      [[4, 5, 6]]])
      In [28]: np.expand_dims(a, axis=2)
      Out[28]:
      array([[[1],
      [2],
      [3]],
      [[4],
      [5],
      [6]]])

      到現(xiàn)在基本上tensorflow以及numpy的axis這個參數(shù)基本沒有問題了。 下面再看幾個常用的函數(shù)。

      tf.slice

      這個函數(shù)主要用于對多維數(shù)組的截取(切片),首先看看原型:

      1
      tf.slice(input_, begin, size, name=None)
      • input_: 輸入
      • begin: 開始截取的位置
      • size: 每一個維度截取的長度

      直接看文檔的例子:

      1
      2
      3
      4
      5
      6
      7
      8
      # 'input' is [[[1, 1, 1], [2, 2, 2]],
      # [[3, 3, 3], [4, 4, 4]],
      # [[5, 5, 5], [6, 6, 6]]]
      tf.slice(input, [1, 0, 0], [1, 1, 3]) ==> [[[3, 3, 3]]]
      tf.slice(input, [1, 0, 0], [1, 2, 3]) ==> [[[3, 3, 3],
      [4, 4, 4]]]
      tf.slice(input, [1, 0, 0], [2, 1, 3]) ==> [[[3, 3, 3]],
      [[5, 5, 5]]]

      先看第一個例子:

      begin=[1,0,0]也就是開始的元素,這里就是input[1][0][0] = 3,就是第二行[3,3,3]的第一個3,,再看截取距離: [1,1,3],首先在axis=0的上截取一個距離,得到是第二整行[[3,3,3],[4,4,4]],在axis=1上截取2個距離,得到[3,3,3],最后在axis=2上截取了3個距離,也就是[3,3,3]這三個元素都得到,最終結(jié)果為:[3,3,3]。

      第二個例子解析:

      開始的元素仍然是input[1][0][0=0],在axis=0上截取1個距離,得到仍然是[[[3,3,3],[4,4,4]]] ,第二個維度上截取距離為2,得到[[[3,3,3],[4,4,4]]],最后在第三個維度上截取3,即三個元素都保留,得到結(jié)果。這里如果第三個維度截取2的話,那么得到就是[[[3,3],[4,4]]]。

      第三個同理,不再敘述。

      參考: 1

        本站是提供個人知識管理的網(wǎng)絡(luò)存儲空間,所有內(nèi)容均由用戶發(fā)布,不代表本站觀點(diǎn)。請注意甄別內(nèi)容中的聯(lián)系方式、誘導(dǎo)購買等信息,謹(jǐn)防詐騙。如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請點(diǎn)擊一鍵舉報。
        轉(zhuǎn)藏 分享 獻(xiàn)花(0

        0條評論

        發(fā)表

        請遵守用戶 評論公約

        類似文章 更多