乡下人产国偷v产偷v自拍,国产午夜片在线观看,婷婷成人亚洲综合国产麻豆,久久综合给合久久狠狠狠9

  • <output id="e9wm2"></output>
    <s id="e9wm2"><nobr id="e9wm2"><ins id="e9wm2"></ins></nobr></s>

    • 分享

      使用Transformer的無卷積醫(yī)學(xué)圖像分割

       小白學(xué)視覺 2021-03-19

      重磅干貨,第一時(shí)間送達(dá)


      小白導(dǎo)讀

      論文是學(xué)術(shù)研究的精華和未來發(fā)展的明燈。小白決心每天為大家?guī)斫?jīng)典或者最新論文的解讀和分享,旨在幫助各位讀者快速了解論文內(nèi)容。個(gè)人能力有限,理解難免出現(xiàn)偏差,建議對文章內(nèi)容感興趣的讀者,一定要下載原文,了解具體內(nèi)容。


      摘要

      與計(jì)算機(jī)視覺中的其他應(yīng)用一樣,醫(yī)學(xué)圖像分割最成功的解決方法是使用深度學(xué)習(xí)模型,該模型依賴于卷積操作作為其主要構(gòu)建模塊。卷積具有一些重要的特性,比如稀疏交互、權(quán)值共享和平移均衡性。這些特性使卷積神經(jīng)網(wǎng)絡(luò)(CNNs)在視覺任務(wù)中具有強(qiáng)大而有用的誘導(dǎo)偏差。在這項(xiàng)工作中,作者證明了完全基于相鄰圖像塊之間的自我注意,而不需要任何卷積操作的不同方法可以獲得競爭或更好的結(jié)果。給定一個(gè)3D圖像塊,作者的網(wǎng)絡(luò)將其分成n 3個(gè)3D patch,其中n = 3或5,計(jì)算每個(gè)patch的1D嵌入量。該網(wǎng)絡(luò)根據(jù)各patch嵌入之間的自我注意度預(yù)測塊中心patch的分割圖。作者表明,在三個(gè)數(shù)據(jù)集上,所提出的模型可以達(dá)到比最先進(jìn)的cnn更好的分割精度。作者還提出了在未標(biāo)記圖像的大型語料庫上對該模型進(jìn)行預(yù)訓(xùn)練的方法。作者的實(shí)驗(yàn)表明,在預(yù)先訓(xùn)練的情況下,當(dāng)標(biāo)記的訓(xùn)練數(shù)據(jù)很小時(shí),作者提出的網(wǎng)絡(luò)相對于cnn的優(yōu)勢是顯著的。


      論文創(chuàng)新點(diǎn)

      本研究的目的是探討基于自我注意的深度神經(jīng)網(wǎng)絡(luò)在三維醫(yī)學(xué)圖像分割中的潛力。作者提出了一種基于三維圖像塊線性嵌入之間的自我注意的網(wǎng)絡(luò)結(jié)構(gòu),不需要任何卷積操作。作者在三個(gè)醫(yī)學(xué)圖像分割數(shù)據(jù)集上訓(xùn)練網(wǎng)絡(luò),并將其性能與最先進(jìn)的CNN進(jìn)行比較。本工作的貢獻(xiàn)如下:

      • 提出了第一個(gè)用于醫(yī)學(xué)圖像分割的無卷積深度神經(jīng)網(wǎng)絡(luò)。

      • 在三個(gè)不同的醫(yī)學(xué)圖像分割數(shù)據(jù)集上,作者證明了作者提出的網(wǎng)絡(luò)可以實(shí)現(xiàn)優(yōu)于或至少相當(dāng)于最先進(jìn)的CNN的分割精度。作者表明,與最近的圖像分類([8][33])不同,作者的網(wǎng)絡(luò)可以有效地訓(xùn)練用于3D醫(yī)學(xué)圖像分割的數(shù)據(jù)集20 200個(gè)標(biāo)記圖像。

      • 在有大量未標(biāo)記訓(xùn)練圖像的情況下,提出了提高網(wǎng)絡(luò)分割精度的預(yù)訓(xùn)練方法。作者表明,當(dāng)有標(biāo)記的訓(xùn)練圖像數(shù)量較少時(shí),作者的網(wǎng)絡(luò)表現(xiàn)得比預(yù)先訓(xùn)練的最先進(jìn)的CNN要好。



      框架結(jié)構(gòu)

      提出的一種用于三維醫(yī)學(xué)圖像分割的無卷積網(wǎng)絡(luò)


      實(shí)驗(yàn)結(jié)果

      所提出的網(wǎng)絡(luò)和最先進(jìn)的CNN預(yù)測的樣本分割

      用該方法和UNet++預(yù)測的樣本分割

      結(jié)論

      卷積運(yùn)算在哺乳動物初級視覺皮層的結(jié)構(gòu)中有很強(qiáng)的基礎(chǔ),適合于開發(fā)強(qiáng)大的圖像建模和圖像理解技術(shù)。近年來,cnn已被證明在解決各種計(jì)算機(jī)視覺問題方面非常有效。然而,沒有理由相信沒有其他模型能在特定的視覺任務(wù)上勝過cnn。特別是醫(yī)學(xué)圖像分析應(yīng)用,帶來了特定的挑戰(zhàn),如圖像的3D性質(zhì)和少量的標(biāo)記圖像。在這樣的應(yīng)用中,其他模型可能比cnn更有效。本文提出了一種新的三維醫(yī)學(xué)圖像分割模型。與最近所有使用卷積作為主要構(gòu)建塊的模型不同,作者的模型是基于相鄰3D補(bǔ)丁之間的自我注意。作者的結(jié)果表明,在三個(gè)醫(yī)學(xué)圖像分割數(shù)據(jù)集上,所提出的網(wǎng)絡(luò)可以優(yōu)于最先進(jìn)的CNN。通過對未標(biāo)記圖像進(jìn)行去噪和繪畫任務(wù)的預(yù)訓(xùn)練,作者的網(wǎng)絡(luò)在只有5-15個(gè)標(biāo)記的訓(xùn)練圖像可用時(shí)也比CNN表現(xiàn)更好。作者期望本文提出的網(wǎng)絡(luò)能夠有效地用于醫(yī)學(xué)圖像分析的其他任務(wù),如異常檢測和分類。

      鏈接:https:///pdf/2102.13645.pdf

      每日堅(jiān)持論文分享不易,如果喜歡我們的內(nèi)容,希望可以推薦或者轉(zhuǎn)發(fā)給周圍的同學(xué)。

      - END -

      #投 稿 通 道#

       讓你的論文被更多人看到 

      如何才能讓更多的優(yōu)質(zhì)內(nèi)容以更短路徑到達(dá)讀者群體,縮短讀者尋找優(yōu)質(zhì)內(nèi)容的成本呢?答案就是:你不認(rèn)識的人。

      總有一些你不認(rèn)識的人,知道你想知道的東西。深度學(xué)習(xí)愛好者 或許可以成為一座橋梁,促使不同背景、不同方向的學(xué)者和學(xué)術(shù)靈感相互碰撞,迸發(fā)出更多的可能性。 

      深度學(xué)習(xí)愛好者 鼓勵(lì)高校實(shí)驗(yàn)室或個(gè)人,在我們的平臺上分享各類優(yōu)質(zhì)內(nèi)容,可以是最新論文解讀,也可以是學(xué)習(xí)心得技術(shù)干貨。我們的目的只有一個(gè),讓知識真正流動起來。

      ?? 來稿標(biāo)準(zhǔn):

      · 稿件確系個(gè)人原創(chuàng)作品,來稿需注明作者個(gè)人信息(姓名+學(xué)校/工作單位+學(xué)歷/職位+研究方向) 

      · 如果文章并非首發(fā),請?jiān)谕陡鍟r(shí)提醒并附上所有已發(fā)布鏈接 

      · 深度學(xué)習(xí)愛好者 默認(rèn)每篇文章都是首發(fā),均會添加“原創(chuàng)”標(biāo)志

        轉(zhuǎn)藏 分享 獻(xiàn)花(0

        0條評論

        發(fā)表

        請遵守用戶 評論公約

        類似文章 更多