乡下人产国偷v产偷v自拍,国产午夜片在线观看,婷婷成人亚洲综合国产麻豆,久久综合给合久久狠狠狠9

  • <output id="e9wm2"></output>
    <s id="e9wm2"><nobr id="e9wm2"><ins id="e9wm2"></ins></nobr></s>

    • 分享

      ChatGPT is not all you need,一文綜述6大公司9類生成式AI模型

       520jefferson 2023-02-03 發(fā)布于北京

      選自|arXiv  作者|Roberto Gozalo-Brizuela

      編譯|機(jī)器之心

      生成模型領(lǐng)域里,ChatGPT 并不是一切。

      過(guò)去兩年,AI 領(lǐng)域里已經(jīng)出現(xiàn)大量大型生成模型,如 ChatGPT 或 Stable Diffusion。具體而言,這些模型能夠執(zhí)行像通用問(wèn)答系統(tǒng)或自動(dòng)創(chuàng)建藝術(shù)圖像等任務(wù),這些任務(wù)正在徹底改變很多領(lǐng)域。

      從目前的發(fā)展來(lái)看,這些生成模型對(duì)行業(yè)和社會(huì)的影響是巨大的,因?yàn)橐恍┕ぷ鲘徫豢赡軙?huì)發(fā)生改變。例如,Generative AI 能夠有效且創(chuàng)造性地將文本轉(zhuǎn)換為圖像,如 DALLE-2 模型;把文本轉(zhuǎn)成 3D 圖像,如 Dreamfusion 模型;把圖像轉(zhuǎn)成文本,如 Flamingo 模型;把文本轉(zhuǎn)成視頻,如 Phenaki 模型;把文本轉(zhuǎn)成音頻,如 AudioLM 模型;把文本轉(zhuǎn)成代碼,如 Codex 模型;把文本轉(zhuǎn)成科學(xué)論文,如 Galactica 模型;甚至創(chuàng)建算法的模型,如 AlphaTensor。 

      在近日由西班牙 Comillas Pontifical University 研究人員提交的綜述論文中,作者試圖以簡(jiǎn)潔的方式描述生成式 AI 對(duì)當(dāng)前很多模型的影響,并對(duì)最近發(fā)布的主要生成式 AI 模型進(jìn)行分類。

      論文《ChatGPT is not all you need. A State of the Art Review of large Generative AI models》:

      圖片

      鏈接:https:///abs/2301.04655

      為向可能因使用這些模型而受益的專業(yè)人士提供有效信息,作者按如下結(jié)構(gòu)組織文章。首先,作者提供行業(yè)中出現(xiàn)的主要生成式模型的分類。接著對(duì)每個(gè)類別進(jìn)行分析。最后,本文會(huì)給出相關(guān)結(jié)論和未來(lái)要做的工作。文章中作者沒(méi)有詳細(xì)介紹每個(gè)模型的技術(shù)細(xì)節(jié),如 Transformer,因?yàn)槲恼碌哪康氖茄芯磕P偷膽?yīng)用,而不是研究它們的工作原理。  

      生成式 AI 模型的分類

      在詳細(xì)分析每個(gè)模型之前,首先將當(dāng)前的生成式 AI 進(jìn)行分類,類別代表輸入數(shù)據(jù)和輸出數(shù)據(jù)類型之間的映射。如圖 1 所示。作者總共總結(jié) 9 個(gè)類別,其中每個(gè)出現(xiàn)在圖 1 中的模型將在之后詳細(xì)描述。由于文章主要關(guān)注點(diǎn)是描述生成式 AI 模型的最新進(jìn)展,為讓讀者能有整體認(rèn)識(shí),在圖 2 中給出了所有已發(fā)布的模型。

      圖片

      圖片

      有趣的是,所有這些模型僅由 6 個(gè)公司發(fā)布,如圖 3 所示。背后的主要原因是為能夠估計(jì)這些模型的參數(shù),必須擁有巨大的計(jì)算能力以及在數(shù)據(jù)科學(xué)和數(shù)據(jù)工程方面技術(shù)精湛、經(jīng)驗(yàn)豐富的團(tuán)隊(duì)。因此,只有圖 3 所示的公司,在收購(gòu)的初創(chuàng)公司的努力下以及與學(xué)術(shù)界的合作,才能夠成功發(fā)布生成式 AI 模型。

      圖片

      到此已經(jīng)介紹了最新的生成式 AI 模型,接下來(lái)的部分將詳細(xì)介紹圖 1 中所示每個(gè)類別。

      隨著技術(shù)的進(jìn)步,我們已經(jīng)在文本到圖像或文本到音頻等任務(wù)中看到了大量的創(chuàng)造力和個(gè)性化。它們?cè)谖谋镜娇茖W(xué)或文本到代碼的任務(wù)中也很準(zhǔn)確。這可以在很大程度上提升我們的自動(dòng)化水平,因?yàn)樗梢詭椭鷥?yōu)化創(chuàng)造性和非創(chuàng)造性任務(wù)。

      然而,由于目前構(gòu)建它們的方式,這些模型面臨著許多限制。在數(shù)據(jù)集方面,找到一些模型的數(shù)據(jù),如文本到科學(xué)或文本到音頻非常困難,使得訓(xùn)練模型非常耗時(shí)。特別需要提到的是,數(shù)據(jù)集和參數(shù)必須非常龐大,這使得訓(xùn)練變得更加困難。模型最大的問(wèn)題之一是從數(shù)據(jù)集中的問(wèn)題中嘗試獲得解決方案,而模型在解決這些問(wèn)題時(shí)遇到了更多麻煩。同樣,在計(jì)算方面,運(yùn)行它們需要大量的時(shí)間和算力。

      我們應(yīng)該意識(shí)到這些模型的局限性,以便在接下來(lái)的幾年中嘗試和改進(jìn)它們。

        本站是提供個(gè)人知識(shí)管理的網(wǎng)絡(luò)存儲(chǔ)空間,所有內(nèi)容均由用戶發(fā)布,不代表本站觀點(diǎn)。請(qǐng)注意甄別內(nèi)容中的聯(lián)系方式、誘導(dǎo)購(gòu)買等信息,謹(jǐn)防詐騙。如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請(qǐng)點(diǎn)擊一鍵舉報(bào)。
        轉(zhuǎn)藏 分享 獻(xiàn)花(0

        0條評(píng)論

        發(fā)表

        請(qǐng)遵守用戶 評(píng)論公約

        類似文章 更多