乡下人产国偷v产偷v自拍,国产午夜片在线观看,婷婷成人亚洲综合国产麻豆,久久综合给合久久狠狠狠9

  • <output id="e9wm2"></output>
    <s id="e9wm2"><nobr id="e9wm2"><ins id="e9wm2"></ins></nobr></s>

    • 分享

      「每周CV論文推薦」 初學(xué)GAN必須要讀的文章

       taotao_2016 2019-09-10

      歡迎來(lái)到《每周CV論文推薦》。在這個(gè)專欄里,還是本著有三AI一貫的原則,專注于讓大家能夠系統(tǒng)性完成學(xué)習(xí),所以我們推薦的文章也必定是同一主題的。

      GAN作為當(dāng)前最有前途,也最燒錢的方向之一,值得每一個(gè)從事CV領(lǐng)域的同學(xué)跟進(jìn),今天給大家介紹入行GAN需要讀的文章。

      作者&編輯 | 言有三

      1 GAN

      首先當(dāng)然是要讀GAN之父Goodfellow的文章[2]了,引用量已經(jīng)超過(guò)了10000+,不過(guò)因?yàn)镚AN模型同時(shí)包含了生成學(xué)習(xí)和判別學(xué)習(xí)模型,也推薦大家讀一讀文[1]對(duì)兩者的對(duì)比。

      文章引用量:10000+

      推薦指數(shù):?????

      「每周CV論文推薦」 初學(xué)GAN必須要讀的文章

      [1] Ng A Y, Jordan M I. On discriminative vs. generative classifiers: A comparison of logistic regression and naive bayes[C]//Advances in neural information processing systems. 2002: 841-848.

      [2] Goodfellow I, Pouget-Abadie J, Mirza M, et al. Generative adversarial nets[C]//Advances in neural information processing systems. 2014: 2672-2680.

      2 DCGAN

      作為第一個(gè)全卷積GAN,簡(jiǎn)單,有效,對(duì)機(jī)器的要求不高,誰(shuí)都可以上手在短時(shí)期來(lái)完成圖像生成任務(wù),領(lǐng)略GAN的神奇之處。

      文章引用量:4000+

      推薦指數(shù):?????

      「每周CV論文推薦」 初學(xué)GAN必須要讀的文章

      [3] Radford A, Metz L, Chintala S. Unsupervised representation learning with deep convolutional generative adversarial networks[J]. arXiv preprint arXiv:1511.06434, 2015.

      3 CGAN和InfoGAN

      GAN雖然是無(wú)監(jiān)督模型,DCGAN固然也好用,但是加了條件控制之后才能做更多的事情。CGAN是第一個(gè)條件GAN模型,能夠控制生成數(shù)字的細(xì)節(jié)。Infogan是無(wú)監(jiān)督的cgan,通過(guò)隱變量約束c與生成數(shù)據(jù)之間的關(guān)系,它們是后面出現(xiàn)的更加強(qiáng)大的條件GAN的基礎(chǔ)。

      文章引用量:2000+

      推薦指數(shù):?????

      「每周CV論文推薦」 初學(xué)GAN必須要讀的文章

      [4] Mirza M, Osindero S. Conditional generative adversarial nets[J]. arXiv preprint arXiv:1411.1784, 2014.

      [5] Chen X, Duan Y, Houthooft R, et al. Infogan: Interpretable representation learning by information maximizing generative adversarial nets[C]//Advances in neural information processing systems. 2016: 2172-2180.

      4 級(jí)連GAN

      原始的GAN生成圖的分辨率太小,無(wú)法實(shí)用,為了更加穩(wěn)定地生成更加高清的圖,LAPGAN[6]/StackedGAN[7]借鑒了圖像中的金字塔算法,各自提出級(jí)連的GAN結(jié)構(gòu)。NVIDIA則在Progressive GAN中首次將圖像生成到了1024分辨率,效果驚人。

      文章引用量:1000+

      推薦指數(shù):?????

      「每周CV論文推薦」 初學(xué)GAN必須要讀的文章

      [6] Denton E L, Chintala S, Fergus R. Deep generative image models using a laplacian pyramid of adversarial networks[C]//Advances in neural information processing systems. 2015: 1486-1494.

      [7] Huang X, Li Y, Poursaeed O, et al. Stacked generative adversarial networks[C]//IEEE Conference on Computer Vision and Pattern Recognition (CVPR). [8] Karras T, Aila T, Laine S, et al. Progressive growing of gans for improved quality, stability, and variation[J]. arXiv preprint arXiv:1710.10196, 2017.

      5 如何獲取文章與交流

      找到有三AI開(kāi)源項(xiàng)目即可獲取。

      https://github.com/longpeng2008/yousan.ai

      「每周CV論文推薦」 初學(xué)GAN必須要讀的文章

      文章細(xì)節(jié)眾多,閱讀交流在有三AI知識(shí)星球中進(jìn)行,感興趣可以加入。

      總結(jié)

      一入GAN門深似海,期望大家能夠在GAN中有所收獲,遇到困難堅(jiān)持住,就是GAN。

        本站是提供個(gè)人知識(shí)管理的網(wǎng)絡(luò)存儲(chǔ)空間,所有內(nèi)容均由用戶發(fā)布,不代表本站觀點(diǎn)。請(qǐng)注意甄別內(nèi)容中的聯(lián)系方式、誘導(dǎo)購(gòu)買等信息,謹(jǐn)防詐騙。如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請(qǐng)點(diǎn)擊一鍵舉報(bào)。
        轉(zhuǎn)藏 分享 獻(xiàn)花(0

        0條評(píng)論

        發(fā)表

        請(qǐng)遵守用戶 評(píng)論公約

        類似文章 更多