發(fā)文章
發(fā)文工具
撰寫
網(wǎng)文摘手
文檔
視頻
思維導(dǎo)圖
隨筆
相冊(cè)
原創(chuàng)同步助手
其他工具
圖片轉(zhuǎn)文字
文件清理
AI助手
留言交流
“跨界出圈 | 談?wù)凚ERT跨模態(tài)預(yù)訓(xùn)練” 的更多相關(guān)文章
文本 視覺,多篇 Visual/Video BERT 論文介紹
微軟亞洲研究院NLP與語音領(lǐng)域2019-2020推薦論文列表
CPT:刷爆少樣本REC任務(wù)!清華劉知遠(yuǎn)團(tuán)隊(duì)提出跨模態(tài)預(yù)訓(xùn)練Prompt Tuning
論文總結(jié) | CVPR2021視覺Transformer優(yōu)秀論文|項(xiàng)目大盤點(diǎn)
NeurIPS 2019中的Transformers
從語言模型到Seq2Seq:Transformer如戲,全靠Mask
薄言AI再升級(jí),全面改進(jìn)Transformer類預(yù)訓(xùn)練模型,自然語言任務(wù)超越BERT
時(shí)下改變AI的6大NLP語言模型
深度了解自監(jiān)督學(xué)習(xí),就看這篇解讀 !微軟首創(chuàng):運(yùn)用在 image 領(lǐng)域的BERT
BERT新轉(zhuǎn)變:面向視覺基礎(chǔ)進(jìn)行預(yù)訓(xùn)練| NeurIPS 2019論文解讀
適合你找個(gè)時(shí)間好好消化的文章,大模型核心技術(shù)——Transformer架構(gòu)
Top 10 影響力 AI 研究論文