乡下人产国偷v产偷v自拍,国产午夜片在线观看,婷婷成人亚洲综合国产麻豆,久久综合给合久久狠狠狠9

  • <output id="e9wm2"></output>
    <s id="e9wm2"><nobr id="e9wm2"><ins id="e9wm2"></ins></nobr></s>

    • 分享

      登上頂級雜志封面,這顆芯片為什么這么火?

       tu324 2019-08-07

      轉(zhuǎn)自:芯師爺

      前幾日,清華大學教授施路平團隊研發(fā)的類腦計算芯片“天機芯”,登上世界頂級學術(shù)雜志《自然》封面,刷爆了朋友圈。

      《自然》雜志封面截圖

      據(jù)論文介紹,“天機芯”是一款新型人工智能芯片,結(jié)合了類腦計算和基于計算機科學的人工智能,是世界首款異構(gòu)融合類腦芯片。和世界先進的IBM公司TrueNorth 芯片相比,“天機芯”功能更全、靈活性和擴展性更好,密度提升20%,速度提高至少10倍,帶寬提高至少100倍。以下視頻為“天機芯”具體介紹:(建議連接WiFi查看)

      1

      什么是類腦芯片?

      顧名思義,類腦芯片是指參考人腦神經(jīng)元結(jié)構(gòu)和人腦感知認知方式來設計的芯片,代表了人工智能芯片研究的最新方向。

      類腦芯片架構(gòu)

      具體而言,類腦芯片架構(gòu)就是模擬人腦的神經(jīng)突觸傳遞結(jié)構(gòu),眾多的處理器類似于神經(jīng)元,通訊系統(tǒng)類似于神經(jīng)纖維,每個神經(jīng)元的計算都是在本地進行的,從整體上看神經(jīng)元們分布式進行工作的,也就是說整體任務進行了分工,每個神經(jīng)元只負責一部分計算。

      對于人工智能產(chǎn)業(yè)而言,隨著數(shù)據(jù)量的不斷增加,想要提升運算效率最常見的方向就是優(yōu)化算法和提升芯片算力。然而在摩爾定律下,處理器集成器件數(shù)量越發(fā)接近極限,提升芯片算力顯然不能依靠傳統(tǒng)方法。想要突破數(shù)據(jù)量激增所帶來的計算瓶頸,就需要從芯片底層架構(gòu)需求重構(gòu)和變化

      目前,圍繞著人工智能芯片的創(chuàng)新路徑主要有以下三個方向:

      1、基于GPU、FPGA等通用芯片打造半定制的方案。例如英偉達公司針對各類應用場景開發(fā)對應的GPU芯片,并通過打造CUDA平臺提升其編輯效率、開放性和豐富性,并建立了完整的算法平臺,使得人工智能算法可以和多種類型智能終端相融合。

      2、針對深度學習算法開發(fā)ASIC芯片。目前谷歌推出的TPU和寒武紀推出的NPU都是基于ASIC架構(gòu)研發(fā)的深度學習芯片。

      3、開發(fā)類腦計算芯片。其本質(zhì)上借鑒人腦的工作原理來實現(xiàn)深度學習,進而解決極其復雜的計算問題,有望帶來計算體系革命與架構(gòu)變革。

      但是從本質(zhì)上講,目前主流的GPU、FPGA以及ASIC芯片都屬于馮·諾依曼結(jié)構(gòu),在這種結(jié)構(gòu)中,計算模塊和存儲模塊是分開的。CPU在執(zhí)行命令時需要先從存儲單位讀取數(shù)據(jù),也就是我們常說的“內(nèi)存墻”,這就產(chǎn)生延時及大量的功耗浪費,從而限制了其計算性能的提升。

      馮·諾依曼結(jié)構(gòu)

      相比之下,人腦卻沒有此類問題出現(xiàn),據(jù)研究表明,人類大腦平均每秒可執(zhí)行1億億次操作,所需能量只有10~25瓦特。因而研究員們正轉(zhuǎn)向模擬人類大腦研究,試圖通過模擬人腦運轉(zhuǎn)機制,通過研發(fā)類腦芯片,使計算機能低能耗高功效地進行計算,甚至使計算機優(yōu)于類人的智能

      除此之外,目前主流的人工智能系統(tǒng)都需要提前的進行人工建模,轉(zhuǎn)化為計算問題進行處理再進行深度學習。而采用類腦芯片的系統(tǒng),理論上可以自動感知,進行問題分析和求解,決策控制等。

      2

      類腦芯片國內(nèi)外進展情況

      基于類腦芯片的數(shù)據(jù)計算領域的革新性,吸引了大量公司投入研發(fā)。而為了保持技術(shù)優(yōu)勢,美國先發(fā)起類腦計算芯片的相關(guān)研究工作,通過模仿人腦工作原理,使芯片能夠進行異步、并行、低速和分布式處理信息數(shù)據(jù),并具備自主感知、識別和學習的能力,第一款類腦芯片就來自于美國的IBM公司。

      1、IBM 公司TrueNorth芯片

      2011年8月,IBM率先在類腦芯片上取得進展,研發(fā)出兩個具有感知、認知功能的硅芯片原型。但因技術(shù)上的限制,IBM戲稱第一代TrueNorth為“蟲腦”。

      IBM公司TrueNorth芯片

      2014年IBM又開發(fā)了第二代TrueNorth芯片,采用了三星28nm工藝,共用了54億個晶體管,其性能相比于第一代有了不少提升。功耗每平方厘米消耗僅為20 毫瓦,是第一代的百分之一,直徑僅有幾厘米,是第一代的十五分之一。

      每個核都簡化模仿了人類大腦神經(jīng)結(jié)構(gòu),包含256個“神經(jīng)元”(處理器)、256個“軸突”(存儲器)和64000個突觸(神經(jīng)元和軸突之間的通信)。總體來看,TrueNorth芯片由4096 個內(nèi)核,100 萬個 “神經(jīng)元”、2.56 億個 “突觸” 集成。

      2、英特爾公司Loihi芯片

      2017年9月,英特爾公司發(fā)布“Loihi”的神經(jīng)模擬原型芯片,這是其推出的首款自學習神經(jīng)元芯片。芯片包含的數(shù)字電路能模擬人腦13萬個神經(jīng)元和1.3億個突觸連接。

      英特爾神經(jīng)擬態(tài)芯片Loihi

      Loihi芯片采用了一種“異步激活”的全新計算方式,來模仿大腦運作模式,組成它的128個計算核心每個都包含1024個神經(jīng)元,總共模擬出人腦13萬個神經(jīng)元和1.3億個突觸連接,組成異步神經(jīng)形態(tài)的多核網(wǎng)狀結(jié)構(gòu),每個神經(jīng)元都能與成千上萬個其他神經(jīng)元同時通訊。

      據(jù)英特爾測試結(jié)果,Loihi的學習效率比其他智能芯片高100萬倍,而且完成同一個任務所消耗的能源可節(jié)省近1000倍。

      3、高通公司Zeroth芯片

      早在2013年高通就公布了Zeroth芯片,名稱來源于IsaacAsimov的機器人學第零定律:“機器人不會傷害人類,而它們也不會允許人類來傷害它們?!?/p>

      高通公司Zeroth芯片

      Zeroth芯片基于一款新的硬件結(jié)構(gòu),其與主宰計算機領域多年的硬件結(jié)構(gòu)有很大區(qū)別。它模仿人類大腦結(jié)構(gòu),由數(shù)十億協(xié)力合作的神經(jīng)細胞組成。

      4、西井科技公司DeepSouth芯片

      上海西井科技基于神經(jīng)形態(tài)工程學,目前已推出了自主研發(fā)的擁有100 億規(guī)模的神經(jīng)元人腦仿真模擬器(Westwell Brain)和可商用化的 5000 萬類腦神經(jīng)元芯片(DeepSouth)兩款產(chǎn)品。

      DeepSouth?

      Westwell Brain 可以通過接受醫(yī)學上大腦神經(jīng)元脈沖放電數(shù)據(jù),以更直觀方式呈現(xiàn)人腦的脈沖形態(tài),用于檢驗藥物及治療的作用區(qū)域及效果。目前,其已經(jīng)和生物試劑供應商 ABR 公司達成戰(zhàn)略合作。

      可商用化的 DeepSouth 則能模擬出高達5000萬級別的 “神經(jīng)元”,總計有50 多億 “神經(jīng)突觸”。DeepSouth 在同一任務下的功耗僅為傳統(tǒng)芯片的幾十分之一到幾百分之一。

      5、“達爾文”類腦芯片

      2015年來自浙江大學與杭州電子科技大學的年輕的研究者們研發(fā)出一款成為達爾文的類腦芯片。這款芯片是國內(nèi)首款基于硅材料的脈沖神經(jīng)網(wǎng)絡類腦芯片。

      “達爾文”類腦芯片

      “達爾文”芯片面積為25平方毫米,比1元硬幣還要小,內(nèi)含500萬個晶體管。芯片上集成了2048個硅材質(zhì)的仿生神經(jīng)元,可支持超過400萬個神經(jīng)突觸和15個不同的突觸延遲。

      6、aiCTX公司DynapCNN處理器

      類腦芯片公司aiCTX于2017年2月底在瑞士蘇黎世創(chuàng)立,隨后便發(fā)布了世界首款完全基于事件觸發(fā)運算的動態(tài)視覺AI處理器DynapCNN。

      AI處理器DynapCNN

      該處理器是一款純異步、高可配置性、可拓展性的神經(jīng)形態(tài)處理器。芯片面積僅為12平方毫米,采用GF22nm工藝設計,單芯片集成超過100萬脈沖神經(jīng)元和400萬可編程參數(shù),支持多種CNN架構(gòu),其芯片架構(gòu)所具有的可拓展性適合于實現(xiàn)大規(guī)模脈沖卷積神經(jīng)網(wǎng)絡。

      3

      類腦芯片的產(chǎn)業(yè)困境

      目前,除了歐洲和美國正在大力投入類腦芯片研發(fā)之外,中國也十分重視類腦研究,并將類腦計算作為國家戰(zhàn)略發(fā)展的制高點,列入國家“十三五”規(guī)劃。但是,類腦芯片還處于前期探索階段,想要真正的落地還需要面臨諸多挑戰(zhàn):

      一是類腦芯片的單晶硅材料和憶阻器等技術(shù)有待突破。為了在硬件層面上模仿人腦中的神經(jīng)突觸,科學家們研究了基于CMOS和憶阻器實現(xiàn)人工神經(jīng)網(wǎng)絡。但是從憶阻器理論出發(fā),神經(jīng)元模型中的鈣離子和鉀離子通道由易失性憶阻器構(gòu)成,對憶阻器的頻率依賴嚴重,滿足類腦芯片的單晶硅和憶阻器等材料技術(shù)仍有待突破。

      二是對腦的觀測和工作機制了解不夠;類腦芯片的研究集中于直接在微芯片上模擬生物神經(jīng)元和突觸的屬性,但是用半導體材料模擬腦細胞和突觸的功能來設計芯片,由于人類對于腦的研究遠遠不夠,這樣的芯片在性能上遠遠達不到“人腦”的要求。

      三是類腦芯片的研究門檻高,人才和企業(yè)隊伍缺失;據(jù)不完全統(tǒng)計,目前從事類腦芯片研究隊伍(包括企業(yè)和研究機構(gòu))不到一百家,全球研究這門技術(shù)人才遠遠不夠撐起整個產(chǎn)業(yè)。

      四是類腦芯片的工程化難題;對于不同的應用,類腦芯片處理器的產(chǎn)業(yè)化進程會有所不同,這對于中下游企業(yè)而言,芯片在不同場景下的兼容性和性能也會有所不同,目前還尚未出現(xiàn)真正產(chǎn)業(yè)化的通用類腦芯片。

        本站是提供個人知識管理的網(wǎng)絡存儲空間,所有內(nèi)容均由用戶發(fā)布,不代表本站觀點。請注意甄別內(nèi)容中的聯(lián)系方式、誘導購買等信息,謹防詐騙。如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請點擊一鍵舉報。
        轉(zhuǎn)藏 分享 獻花(0

        0條評論

        發(fā)表

        請遵守用戶 評論公約

        類似文章 更多