歡迎來(lái)到《每周CV論文推薦》。在這個(gè)專欄里,還是本著有三AI一貫的原則,專注于讓大家能夠系統(tǒng)性完成學(xué)習(xí),所以我們推薦的文章也必定是同一主題的。 GAN作為當(dāng)前最有前途,也最燒錢的方向之一,值得每一個(gè)從事CV領(lǐng)域的同學(xué)跟進(jìn),今天給大家介紹入行GAN需要讀的文章。 作者&編輯 | 言有三 1 GAN首先當(dāng)然是要讀GAN之父Goodfellow的文章[2]了,引用量已經(jīng)超過(guò)了10000+,不過(guò)因?yàn)镚AN模型同時(shí)包含了生成學(xué)習(xí)和判別學(xué)習(xí)模型,也推薦大家讀一讀文[1]對(duì)兩者的對(duì)比。 文章引用量:10000+ 推薦指數(shù):????? [1] Ng A Y, Jordan M I. On discriminative vs. generative classifiers: A comparison of logistic regression and naive bayes[C]//Advances in neural information processing systems. 2002: 841-848. [2] Goodfellow I, Pouget-Abadie J, Mirza M, et al. Generative adversarial nets[C]//Advances in neural information processing systems. 2014: 2672-2680. 2 DCGAN作為第一個(gè)全卷積GAN,簡(jiǎn)單,有效,對(duì)機(jī)器的要求不高,誰(shuí)都可以上手在短時(shí)期來(lái)完成圖像生成任務(wù),領(lǐng)略GAN的神奇之處。 文章引用量:4000+ 推薦指數(shù):????? [3] Radford A, Metz L, Chintala S. Unsupervised representation learning with deep convolutional generative adversarial networks[J]. arXiv preprint arXiv:1511.06434, 2015. 3 CGAN和InfoGANGAN雖然是無(wú)監(jiān)督模型,DCGAN固然也好用,但是加了條件控制之后才能做更多的事情。CGAN是第一個(gè)條件GAN模型,能夠控制生成數(shù)字的細(xì)節(jié)。Infogan是無(wú)監(jiān)督的cgan,通過(guò)隱變量約束c與生成數(shù)據(jù)之間的關(guān)系,它們是后面出現(xiàn)的更加強(qiáng)大的條件GAN的基礎(chǔ)。 文章引用量:2000+ 推薦指數(shù):????? [4] Mirza M, Osindero S. Conditional generative adversarial nets[J]. arXiv preprint arXiv:1411.1784, 2014. [5] Chen X, Duan Y, Houthooft R, et al. Infogan: Interpretable representation learning by information maximizing generative adversarial nets[C]//Advances in neural information processing systems. 2016: 2172-2180. 4 級(jí)連GAN原始的GAN生成圖的分辨率太小,無(wú)法實(shí)用,為了更加穩(wěn)定地生成更加高清的圖,LAPGAN[6]/StackedGAN[7]借鑒了圖像中的金字塔算法,各自提出級(jí)連的GAN結(jié)構(gòu)。NVIDIA則在Progressive GAN中首次將圖像生成到了1024分辨率,效果驚人。 文章引用量:1000+ 推薦指數(shù):????? [6] Denton E L, Chintala S, Fergus R. Deep generative image models using a laplacian pyramid of adversarial networks[C]//Advances in neural information processing systems. 2015: 1486-1494. [7] Huang X, Li Y, Poursaeed O, et al. Stacked generative adversarial networks[C]//IEEE Conference on Computer Vision and Pattern Recognition (CVPR). [8] Karras T, Aila T, Laine S, et al. Progressive growing of gans for improved quality, stability, and variation[J]. arXiv preprint arXiv:1710.10196, 2017. 5 如何獲取文章與交流找到有三AI開(kāi)源項(xiàng)目即可獲取。 https://github.com/longpeng2008/yousan.ai 文章細(xì)節(jié)眾多,閱讀交流在有三AI知識(shí)星球中進(jìn)行,感興趣可以加入。 總結(jié) 一入GAN門深似海,期望大家能夠在GAN中有所收獲,遇到困難堅(jiān)持住,就是GAN。 |
|
來(lái)自: taotao_2016 > 《AI》