乡下人产国偷v产偷v自拍,国产午夜片在线观看,婷婷成人亚洲综合国产麻豆,久久综合给合久久狠狠狠9

  • <output id="e9wm2"></output>
    <s id="e9wm2"><nobr id="e9wm2"><ins id="e9wm2"></ins></nobr></s>

    • 分享

      2021年了,Transformer有可能替代CNN嗎?未來有哪些研究方向?

       520jefferson 2021-02-14

      Transformer 的跨界之旅,從 2020 延續(xù)到了 2021。

      2020 年 5 月,F(xiàn)acebook AI 推出了 Detection Transformer,用于目標(biāo)檢測和全景分割。這是第一個將 Transformer 成功整合為檢測 pipeline 中心構(gòu)建塊的目標(biāo)檢測框架, 在大型目標(biāo)上的檢測性能要優(yōu)于 Faster R-CNN。

      DETR-R101 處理的全景分割結(jié)果

      2020 年 10 月,谷歌提出了 Vision Transformer(ViT),能直接利用 Transformer 對圖像進(jìn)行分類,而不需要卷積網(wǎng)絡(luò)。該模型可以獲得與當(dāng)前最優(yōu)卷積網(wǎng)絡(luò)相媲美的結(jié)果,但其訓(xùn)練所需的計(jì)算資源大大減少。谷歌在論文中寫道:「這項(xiàng)研究表明,對 CNN 的依賴不是必需的。當(dāng)直接應(yīng)用于圖像塊序列時,transformer 也能很好地執(zhí)行圖像分類任務(wù)?!?/strong>

      2020 年 12 月,復(fù)旦大學(xué)、牛津大學(xué)、騰訊等機(jī)構(gòu)的研究者提出了 SEgmentation TRansformer(SETR),將語義分割視為序列到序列的預(yù)測任務(wù),該模型在 ADE20K 上排名第一,性能優(yōu)于 OCNet、GCNet 等網(wǎng)絡(luò)。

      元旦剛過,OpenAI 又連放大招 ,用 DALL·E 和 CLIP 打破了自然語言與視覺的次元壁。兩個模型都利用 Transformer 達(dá)到了很好的效果,前者可以基于本文直接生成圖像,后者則能完成圖像與文本類別的匹配。

      DALL·E 示例。給出一句話「牛油果形狀的椅子」,就可以獲得綠油油、形態(tài)各異的牛油果椅子圖像

      這些研究覆蓋了圖像分類、目標(biāo)檢測、語義分割等 CV 主流方向。因此有人提問:「未來,Transformer 有可能替代 CNN 嗎?」

      這一問題在知乎、Reddit 等平臺上都有人討論。從討論的結(jié)果來看,大部分人認(rèn)為 Transformer 和 CNN 各有優(yōu)劣,二者可能并非取代和被取代的關(guān)系,而是互相融合,取長補(bǔ)短。從研究現(xiàn)狀來看,Transformer 在 CV 領(lǐng)域的應(yīng)用還需要解決計(jì)算效率低等問題。

      Transformer 取代 CNN?下結(jié)論還為時過早

      在知乎討論區(qū),用戶 @小小將指出,「目前我們看到很大一部分工作還是把 transformer 和現(xiàn)有的 CNN 工作結(jié)合在一起」。以 DETR 為例,該模型使用 CNN 從圖像中提取局部信息,同時利用 Transformer 編碼器 - 解碼器架構(gòu)對圖像進(jìn)行整體推理并生成預(yù)測。

      聲稱「對 CNN 的依賴并非必需」的 ViT 模型可能也不例外。@小小將表示,「ViT 其實(shí)也是有 Hybrid Architecture(將 ResNet 提出的特征圖送入 ViT)」。@mileistone 也認(rèn)為,「(ViT)文章里提出的方法中會將圖片分成多個無 overlap 的 patch,每個 patch 通過 linear projection 映射為 patch embedding,這個過程其實(shí)就是卷積,跟文章里聲稱的不依賴 CNN 自相矛盾?!?/p>

      由于 CNN 和 Transformer 各有優(yōu)勢和不足,這種融合的做法出現(xiàn)在很多 Transformer 的跨界論文中。

      在解釋 CNN 和 Transformer 各自的優(yōu)缺點(diǎn)時,用戶 @齊國君提到,「CNN 網(wǎng)絡(luò)在提取底層特征和視覺結(jié)構(gòu)方面有比較大的優(yōu)勢。這些底層特征構(gòu)成了在 patch level 上的關(guān)鍵點(diǎn)、線和一些基本的圖像結(jié)構(gòu)。這些底層特征具有明顯的幾何特性,往往關(guān)注諸如平移、旋轉(zhuǎn)等變換下的一致性或者說是共變性。CNN 網(wǎng)絡(luò)在處理這類共變性時是很自然的選擇。但當(dāng)我們檢測得到這些基本視覺要素后,高層的視覺語義信息往往更關(guān)注這些要素之間如何關(guān)聯(lián)在一起進(jìn)而構(gòu)成一個物體,以及物體與物體之間的空間位置關(guān)系如何構(gòu)成一個場景,這些是我們更加關(guān)心的。目前來看,transformer 在處理這些要素之間的關(guān)系上更自然也更有效。」

      從現(xiàn)有的研究來看,二者的結(jié)合也確實(shí)實(shí)現(xiàn)了更好的結(jié)果,比如近期的《Rethinking Transformer-based Set Prediction for Object Detection》「還是把現(xiàn)有的 CNN 檢測模型和 transformer 思想結(jié)合在一起實(shí)現(xiàn)了比 DETR 更好的效果(訓(xùn)練收斂速度也更快)」(引自 @小小將)。反過來說,如果全部將 CV 任務(wù)中的 CNN 換成 Transformer,我們會遇到很多問題,比如計(jì)算量、內(nèi)存占用量大到無法接受。

      未來研究思路

      Transformer 的跨界之旅還在繼續(xù),那么未來有哪些可能的研究思路呢?

      去年 12 月,來自華為諾亞方舟實(shí)驗(yàn)室、北京大學(xué)、悉尼大學(xué)的研究者整理了一份綜述,詳細(xì)歸納了多個視覺方向的 Transformer 模型。

      論文鏈接:https:///pdf/2012.12556.pdf

      此外,他們還在論文中初步思考并給出了三個未來的研究方向:

      1. 現(xiàn)有的 Visual Transformer 都還是將 NLP 中 Transformer 的結(jié)構(gòu)套到視覺任務(wù)做了一些初步探索,未來針對 CV 的特性設(shè)計(jì)更適配視覺特性的 Transformer 將會帶來更好的性能提升。
      2. 現(xiàn)有的 Visual Transformer 一般是一個模型做單個任務(wù),近來有一些模型可以單模型做多任務(wù),比如 IPT,未來是否可以有一個世界模型,處理所有任務(wù)?
      3. 現(xiàn)有的 Visual Transformer 參數(shù)量和計(jì)算量多大,比如 ViT 需要 18B FLOPs 在 ImageNet 達(dá)到 78% 左右 Top1,但是 CNN 模型如 GhostNet 只需 600M FLOPs 可以達(dá)到 79% 以上 Top1,所以高效 Transformer for CV 亟需開發(fā)以媲美 CNN。(引自 @kai.han)

      類似的綜述研究還有來自穆罕默德 · 本 · 扎耶德人工智能大學(xué)等機(jī)構(gòu)的《Transformers in Vision: A Survey》。

      論文鏈接:https:///pdf/2101.01169.pdf

      有志于 Transformer 跨界研究的同學(xué)可以在讀完綜述后尋找自己感興趣的研究方向。

      一起交流

        本站是提供個人知識管理的網(wǎng)絡(luò)存儲空間,所有內(nèi)容均由用戶發(fā)布,不代表本站觀點(diǎn)。請注意甄別內(nèi)容中的聯(lián)系方式、誘導(dǎo)購買等信息,謹(jǐn)防詐騙。如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請點(diǎn)擊一鍵舉報(bào)。
        轉(zhuǎn)藏 分享 獻(xiàn)花(0

        0條評論

        發(fā)表

        請遵守用戶 評論公約

        類似文章 更多