乡下人产国偷v产偷v自拍,国产午夜片在线观看,婷婷成人亚洲综合国产麻豆,久久综合给合久久狠狠狠9

  • <output id="e9wm2"></output>
    <s id="e9wm2"><nobr id="e9wm2"><ins id="e9wm2"></ins></nobr></s>

    • 分享

      2018 年度 GtiHub 開源項(xiàng)目 TOP 25:數(shù)據(jù)科學(xué) & 機(jī)器學(xué)習(xí)

       昵稱16619343 2019-02-24

      雷鋒網(wǎng) AI 科技評(píng)論按:本文作者 Pranav Dar 是 Analytics Vidhya 的編輯,對(duì)數(shù)據(jù)科學(xué)和機(jī)器學(xué)習(xí)有較深入的研究和簡(jiǎn)介,致力于為使用機(jī)器學(xué)習(xí)和人工智能推動(dòng)人類進(jìn)步找到新途徑。2018 這一年中,作者在每個(gè)月都會(huì)發(fā)布一份開源項(xiàng)目月度推薦榜單,而本文則是對(duì)全年開源項(xiàng)目的盤點(diǎn)和總結(jié)。雷鋒網(wǎng) AI 科技評(píng)論編譯如下。

      前沿

      關(guān)于托管代碼、與團(tuán)隊(duì)成員合作以及充當(dāng)展示個(gè)人寫代碼技能的「在線簡(jiǎn)歷」,最好的平臺(tái)是哪個(gè)?問及任何一位數(shù)據(jù)科學(xué)家,他們都會(huì)讓你去 GitHub。近年來,GitHub 作為一個(gè)真正具有變革性的平臺(tái),已經(jīng)改變了我們托管甚至寫代碼的方式。

      但這還不是全部。此外,它還是一個(gè)學(xué)習(xí)平臺(tái)。如果你問怎么學(xué)習(xí)的話,我可以給你一個(gè)暗示——開源項(xiàng)目!

      世界領(lǐng)先的科技公司通過在 GitHub 上發(fā)布其熱門算法的代碼,對(duì)項(xiàng)目進(jìn)行開源。2018 年,在 Google 和 Facebook 等公司的帶領(lǐng)下,這類開源項(xiàng)目大幅增加。其中最好的那部分開源項(xiàng)目,寫代碼的研究者還提供了預(yù)訓(xùn)練模型,從而讓你我這些人不必再浪費(fèi)時(shí)間從頭開始創(chuàng)建高難度的模型。

      同時(shí),針對(duì)編碼者和開發(fā)者的熱門開源項(xiàng)目也很多——包括備忘單、視頻鏈接、電子書、研究論文鏈接以及其他等資源。無論你在你的專業(yè)領(lǐng)域處于哪個(gè)等級(jí)(初學(xué)者、中級(jí)以及高級(jí)),你總可以在 GitHub 上找到可以學(xué)習(xí)的新東西。

      對(duì)于數(shù)據(jù)科學(xué)的很多子領(lǐng)域來說,2018 年是不同凡響的一年,這個(gè)我下面馬上就會(huì)講到。隨著 ULMFiT、BERT 等項(xiàng)目在 GitHub 上進(jìn)行開源,自然語(yǔ)言處理(NLP)迅速成為社區(qū)中談?wù)撟疃嗟念I(lǐng)域。我致力于將自己最大的努力貢獻(xiàn)給這么棒的 GitHub 社區(qū),在這一年中,我精心挑選了每位數(shù)據(jù)科學(xué)家都應(yīng)該了解的 TOP 5 開源項(xiàng)目,并整理成了月度榜單系列。你可以點(diǎn)擊下面的鏈接,前往查看完整榜單:

      • 一月份:https://www./blog/2018/02/top-5-github-repositories-january-2018/

      • 二月份:https://www./blog/2018/03/top-5-github-repositories-february-2018/

      • 三月份:https://www./blog/2018/04/top-7-github-repositories-march-2018/

      • 四月份:https://www./blog/2018/05/top-5-github-reddit-data-science-machine-learning-april-2018/

      • 五月份:https://www./blog/2018/06/top-5-github-reddit-data-science-machine-learning-may-2018/

      • 六月份:https://www./blog/2018/07/top-github-reddit-data-science-machine-learning-june-2018/

      • 七月份:https://www./blog/2018/08/best-machine-learning-github-repositories-reddit-threads-july-2018/

      • 八月份:https://www./blog/2018/09/best-machine-learning-github-repositories-reddit-threads-august-2018/

      • 九月份:https://www./blog/2018/10/best-machine-learning-github-repositories-reddit-threads-september-2018/

      • 十月份:https://www./blog/2018/11/best-machine-learning-github-repositories-reddit-threads-october-2018/

      • 十一月份:https://www./blog/2018/12/best-machine-learning-github-repositories-reddit-threads-november-2018/

      這些文章的部分內(nèi)容會(huì)和我盤點(diǎn)的 2018 年 AI 和 ML 領(lǐng)域最大突破文章有所重合,大家也可以前往以下地址閱讀這篇文章——它從根本上來說是一份盤點(diǎn)了該領(lǐng)域主要進(jìn)展的榜單,我認(rèn)為該領(lǐng)域的每個(gè)人都應(yīng)該有所了解。作為額外福利,文中還有來自專家們的預(yù)測(cè)——大家應(yīng)該都不想錯(cuò)過吧。

      https://www./blog/2018/12/key-breakthroughs-ai-ml-2018-trends-2019/

      現(xiàn)在,準(zhǔn)備好去探索新的項(xiàng)目,并努力成為 2019 年的數(shù)據(jù)科學(xué)之星吧。繼續(xù)向下滾動(dòng),大家點(diǎn)擊每個(gè)項(xiàng)目后面的鏈接就可以前往 GitHub 的代碼庫(kù)了。

      • 本文將覆蓋到的話題

      • 工具和框架

      • 計(jì)算機(jī)視覺

      • 生成式對(duì)抗網(wǎng)絡(luò)(GANs)

      • 其他深度學(xué)習(xí)項(xiàng)目

      • 自然語(yǔ)言處理(NLP)

      • 自動(dòng)的機(jī)器學(xué)習(xí)(AutoML)

      • 強(qiáng)化學(xué)習(xí)

      工具和框架

      讓我們開始來看看工具、開發(fā)庫(kù)和框架方面的最佳開源項(xiàng)目。由于我們?cè)谟懻摰氖且粋€(gè)軟件倉(cāng)庫(kù)平臺(tái),先講這部分似乎才是正確的打開方式。

      科技正在快速發(fā)展,同時(shí)計(jì)算成本也比之前更低了,所以現(xiàn)在有一個(gè)接一個(gè)大量的開源項(xiàng)目可供我們使用?,F(xiàn)在,可以被稱作機(jī)器學(xué)習(xí)編碼的黃金時(shí)代嗎?這是一個(gè)開放的問題,但是我們都認(rèn)同的一件事是,現(xiàn)在是做一個(gè)數(shù)據(jù)科學(xué)領(lǐng)域的編程員的好時(shí)期。在這個(gè)部分(以及整篇文章),我都在嘗試讓編程語(yǔ)言盡可能地多樣化些,不過 Python 無法避免地占據(jù)主導(dǎo)地位。

      ML.NET

      開源地址:https://github.com/dotnet/machinelearning

      如果你們這些.NET 開發(fā)者們想要學(xué)一點(diǎn)機(jī)器學(xué)習(xí)知識(shí)來補(bǔ)充現(xiàn)有的技能,你會(huì)怎么做?現(xiàn)在就有一個(gè)完美的開源項(xiàng)目可以助你開始實(shí)施這一想法!這個(gè)完美的開源項(xiàng)目就是微軟的一個(gè)項(xiàng)目——ML.NET,它是一個(gè)開源的機(jī)器學(xué)習(xí)框架,讓你用 .NET 就可以設(shè)計(jì)和開發(fā)模型。

      你甚至可以將現(xiàn)有的機(jī)器學(xué)習(xí)模型集成到你的應(yīng)用程序中,而完全不要求你切確地知道怎樣開發(fā)機(jī)器學(xué)習(xí)模型。ML.NET 實(shí)際上已被應(yīng)用于多個(gè)微軟產(chǎn)品中,例如 Windows、 Bing 搜索、 MS Office 等等。

      ML.NET 可以在 Windows、Linux 以及 MacOS 上運(yùn)行。

      TensorFlow.js

      開源地址:https://github.com/tensorflow/tfjs

      在瀏覽器中實(shí)現(xiàn)機(jī)器學(xué)習(xí)!幾年前,這還只是一個(gè)幻想,而現(xiàn)在成為了一個(gè)震撼人心的現(xiàn)實(shí)。這一領(lǐng)域的大多數(shù)人都與我們最愛的 IDEs 牢不可分,而 TensorFlow.js 則有可能改變我們的習(xí)慣。自今年早些時(shí)候發(fā)布以來,它就成為一個(gè)非常受歡迎的開源項(xiàng)目,并且它的靈活性還在繼續(xù)給人帶來驚喜。

      正如開源項(xiàng)目所介紹的,TensorFlow.js 主要有三個(gè)重要特征:

      • 瀏覽器自身可以開發(fā)機(jī)器學(xué)習(xí)和深度學(xué)習(xí)模型;

      • 可以在瀏覽器中運(yùn)行現(xiàn)有的 TensorFlow 模型;

      • 同時(shí)可以對(duì)這些現(xiàn)有的模型進(jìn)行重新訓(xùn)練或者微調(diào)。

      如果你熟悉 Keras,那你也會(huì)對(duì)它的高級(jí)層 API 非常熟悉。目前在 GitHub 的開源項(xiàng)目中,有大量對(duì)外開放的示例,你可前往社區(qū)查看,來活躍一下你的學(xué)習(xí)曲線。

      PyTorch 1.0

      開源地址:https://github.com/pytorch/pytorch

      對(duì)于 PyTorch 來說,2018 年是非常精彩的一年。它贏得了全球數(shù)據(jù)科學(xué)家和機(jī)器學(xué)習(xí)研究者們的心,現(xiàn)在他們則不斷為 PyTorch 貢獻(xiàn)項(xiàng)目。PyTorch 易于理解、靈活且被應(yīng)用于眾多高知名度的研究中(本文接下來會(huì)講到)。PyTorch 最新版本(PyTorch 1.0)已經(jīng)規(guī)?;刭x能了大量 Facebook 產(chǎn)品和服務(wù),包括每天進(jìn)行 6 百億次文本翻譯。如果你想知道什么時(shí)候開始涉足 PyTorch,那就是現(xiàn)在。

      如果你是這一領(lǐng)域的初學(xué)者,可以先去看看 Faizan Shaikh 寫的 PyTorch 入門指南:https://www./blog/2018/02/pytorch-tutorial/

      Papers with Code

      開源地址:https://github.com/zziz/pwc

      嚴(yán)格來說,Papers with Code 這個(gè)開源項(xiàng)目并不是一個(gè)工具或框架,但是對(duì)于數(shù)據(jù)科學(xué)家來說,它就是一個(gè)「金礦」。我們大多數(shù)人都在努力閱讀論文,然后對(duì)論文提出的方法進(jìn)行實(shí)操(至少我是這樣做的)。大量的活動(dòng)部件似乎無法在我們的機(jī)器上工作。

      這就是需要用到「Papers with Code」的地方。如名稱所示,它們對(duì)于在最近 6 年左右發(fā)布的重要論文都有代碼實(shí)現(xiàn)。這一論文集網(wǎng)站令人興奮,你會(huì)發(fā)現(xiàn)自己都忍不住贊嘆它。它們甚至將在 NIPS (NeurIPS) 2018 中展示的論文代碼也增加上去了?,F(xiàn)在就去使用 Papers with Code 吧。

      計(jì)算機(jī)視覺

      得益于計(jì)算成本的下降和頂級(jí)研究者們所帶來的突破的激增(一些事件顯示這兩者可能是互相關(guān)聯(lián)的),現(xiàn)在越來越多人可以使用深度學(xué)習(xí)進(jìn)行研究了。而在深度學(xué)習(xí)這一領(lǐng)域,計(jì)算機(jī)視覺項(xiàng)目是最普遍——在這一章節(jié)中所提到的大部分開源項(xiàng)目都包含了一種計(jì)算機(jī)視覺技術(shù)或另一種計(jì)算機(jī)視覺技術(shù)。

      現(xiàn)在,計(jì)算機(jī)視覺可以說是深度學(xué)習(xí)最熱門的領(lǐng)域,并且在可見的未來依舊會(huì)這么熱門。無論是目標(biāo)檢測(cè),還是姿態(tài)估計(jì),幾乎所有的計(jì)算機(jī)視覺任務(wù)都有相對(duì)應(yīng)的開源項(xiàng)目?,F(xiàn)在是了解這些進(jìn)展的最佳時(shí)期—不久后,你或許就可以獲得大量的工作機(jī)會(huì)。

      Facebook 的 Detectron 

      開源地址:https://github.com/facebookresearch/Detectron

      在 2018 年初被發(fā)布時(shí),Detectron 就曾掀起千層浪。它由 Facebook 人工智能研究院(FAIR)開發(fā),實(shí)現(xiàn)了最先進(jìn)的目標(biāo)檢測(cè)框架。Detectron 采用(驚喜,驚喜!)Python 語(yǔ)言編寫代碼,已經(jīng)幫助實(shí)現(xiàn)了多個(gè)項(xiàng)目,包括 DensePose(之后我們也會(huì)在文中提到)。

      這個(gè)開源項(xiàng)目包括了代碼以及 70+個(gè)預(yù)訓(xùn)練模型。與這么好的機(jī)會(huì)失之交臂,就問你同不同意?

      英偉達(dá)的 vid2vid 技術(shù)

      開源地址:https://github.com/NVIDIA/vid2vid

      圖像的目標(biāo)檢測(cè)現(xiàn)在做得很不錯(cuò),那在視頻中進(jìn)行目標(biāo)檢測(cè)呢?不僅如此,我們能否能延展這一概念以及將某個(gè)視頻的樣式轉(zhuǎn)換為另一種呢?是的,我們可以!這是一個(gè)非??岬母拍畈⑶矣ミ_(dá)已經(jīng)非常慷慨地發(fā)布了 PyTorch 實(shí)現(xiàn),讓大家盡情嘗試。

      這個(gè)開源項(xiàng)目包括介紹這一技術(shù)的視頻、完整的研究論文以及代碼。英偉達(dá)的示例中,應(yīng)用了可公開注冊(cè)下載的 Cityscapes dataset(下載地址:https://www./)。這是我自 2018 年以來個(gè)人最喜歡的開源項(xiàng)目。

      用 18 秒在 ImageNet 數(shù)據(jù)集上訓(xùn)練出一個(gè)模型

      開源地址:https://github.com/diux-dev/imagenet18

      用 18 秒時(shí)間訓(xùn)練一個(gè)深度學(xué)習(xí)模型?與此同時(shí)還不使用高端的計(jì)算資源?相信我,現(xiàn)在可以實(shí)現(xiàn)了。Fast.ai 公司的 Jeremy Howard 和他的學(xué)生團(tuán)隊(duì)在熱門的 ImageNet 數(shù)據(jù)集上創(chuàng)建了一個(gè)模型,表現(xiàn)甚至超過了 Google 的方法。

      我建議你至少過一下這個(gè)開源項(xiàng)目,了解一下這些研究者是怎樣構(gòu)建代碼的。并非每個(gè)人都擁有多個(gè) GPU(有的人甚至一個(gè)也沒有),因此對(duì)于「小蝦米」來說,這個(gè)開源項(xiàng)目意義重大。

      目標(biāo)檢測(cè)論文的完整集

      開源地址:https://github.com/hoya012/deep_learning_object_detection

      這是另一個(gè)研究論文集開源項(xiàng)目,它往往能幫助你了解所選擇的研究課題在多年時(shí)間跨度里發(fā)生了怎樣的演變,同時(shí)這個(gè)一站式歷史記錄正好可以幫助你了解目標(biāo)檢測(cè)在多年時(shí)間里經(jīng)歷的變化。它完整地收集了 2014 年至今的論文,甚至也盡可能地收集了每篇論文對(duì)應(yīng)的代碼。

      上圖表明了目標(biāo)檢測(cè)框架在過去五年時(shí)間里經(jīng)歷了怎樣的演變和轉(zhuǎn)變。很神奇,不是嗎?圖中甚至包括了 2019 年的工作,所以你有的忙了。

      Facebook 的 DensePose

      開源地址:https://github.com/facebookresearch/DensePose


      讓我們將注意力轉(zhuǎn)向姿態(tài)檢測(cè)領(lǐng)域。我在今年了解到這一概念本身,并且從此以后深為著迷。上面的圖像抓住了這個(gè)開源項(xiàng)目的精華——戶外場(chǎng)景下的密集人體姿勢(shì)評(píng)估。

      該開源項(xiàng)目包含了訓(xùn)練和評(píng)估 DensePose-RCNN 模型的代碼,以及可用于可視化 DensePose COCO 數(shù)據(jù)集的筆記。這是一個(gè)開啟姿態(tài)評(píng)估學(xué)習(xí)的好地方。

      Everybody Dance Now—姿態(tài)評(píng)估

      開源地址:https://github.com/nyoki-mtl/pytorch-EverybodyDanceNow

      上圖(截取自視頻)實(shí)在是激起了我的興趣。我在八月份的盤點(diǎn)文章中就寫到了該研究論文的開源項(xiàng)目,并繼續(xù)佩服這項(xiàng)技術(shù)。這項(xiàng)技術(shù)將不同視頻中人體目標(biāo)間的動(dòng)作進(jìn)行轉(zhuǎn)移。我提到的這個(gè)視頻也可以在開源項(xiàng)目中看到——它的效果超越你的想象!

      這個(gè)開源項(xiàng)目進(jìn)一步包含了這一方法的 PyTorch 實(shí)現(xiàn)。這一方法能夠獲取和復(fù)制的復(fù)雜細(xì)節(jié)的數(shù)量是驚人的。

      生成式對(duì)抗網(wǎng)絡(luò)(GANs)

      我確定你們大多數(shù)人一定接觸過 GAN 的應(yīng)用(即使你們當(dāng)時(shí)可能并沒有意識(shí)到是它)。GAN,或者說生成式對(duì)抗網(wǎng)絡(luò)由 Ian Goodfellow 于 2014 年提出,從那以后就變得熱門。它們專用于執(zhí)行創(chuàng)造性的任務(wù),尤其是藝術(shù)性的任務(wù)。大家可前往 https://www./blog/2017/06/introductory-generative-adversarial-networks-gans/ 查看 Faizan Shaikh 所寫的介紹指南,文中還包括了使用 Python 語(yǔ)言的實(shí)現(xiàn)方法。

      在 2018 年,我們看到了太多基于 GAN 的項(xiàng)目,因此我也想用一個(gè)獨(dú)立章節(jié)來介紹 GAN 相關(guān)的開源項(xiàng)目。

      Deep Painterly Harmonization

      開源地址:https://github.com/luanfujun/deep-painterly-harmonization

      首先從我最喜愛的一個(gè)開源項(xiàng)目講起。我希望你花點(diǎn)時(shí)間僅僅來欣賞一下上面的圖像。你能分辨出哪張是由人類做的,哪張是由機(jī)器生成的嗎?我確定你不能。這里,第一個(gè)畫面是輸入圖像(原始的),而第三個(gè)畫面是由這項(xiàng)技術(shù)所生成的。

      很驚訝,是嗎?這個(gè)算法將你選擇的外部物體添加到了任意一張圖像上,并成功讓它看上去好像本來就應(yīng)該在那里一樣。你不妨查看這個(gè)代碼,然后嘗試親自到一系列不同的圖像上去操作這項(xiàng)技術(shù)。

      Image Outpainting

      開源地址:https://github.com/bendangnuksung/Image-OutPainting

      如果我給你一張圖像,并讓你通過想象圖像在圖中完整場(chǎng)景呈現(xiàn)時(shí)的樣子,來擴(kuò)展它的畫面邊界,你會(huì)怎么辦?正常來說,你可能會(huì)把這個(gè)圖導(dǎo)入到某個(gè)圖像編輯軟件里進(jìn)行操作。但是現(xiàn)在有了一個(gè)非常棒的新軟件——你可以用幾行代碼就實(shí)現(xiàn)這項(xiàng)操作。

      這個(gè)項(xiàng)目是斯坦福大學(xué)「Image Outpainting」論文(論文地址:https://cs230./projects_spring_2018/posters/8265861.pdf,這是一篇無比驚艷并配有示例說明的論文——這就是大多數(shù)研究論文所應(yīng)有的樣子!)的 Keras 實(shí)現(xiàn)。你或者可以從頭開始創(chuàng)建模型,或者也可以使用這個(gè)開源項(xiàng)目作者所提供的模型。深度學(xué)習(xí)從來不會(huì)停止給人們帶來驚喜。

      可視化和理解 GANs

      開源地址:https://github.com/CSAILVision/gandissect

      如果你至今還沒有掌握 GANs,不妨嘗試一下這個(gè)開源項(xiàng)目。這個(gè)項(xiàng)目由麻省理工人工智能實(shí)驗(yàn)室(MIT CSAIL)提出,可以幫助研究者可視化和理解 GANs。你可以通過觀察或者操作 GAN 模型的神經(jīng),來探究它學(xué)到了什么。

       我建議你可以去查看一下 MIT 項(xiàng)目的官方主頁(yè)(https://gandissect.csail./),上面有大量的資源(包括視頻 demo),可以讓你對(duì)這個(gè)概念更加熟悉。

      GANimation

      開源地址:https://github.com/albertpumarola/GANimation

      這個(gè)算法可以讓你改變圖像中任何一個(gè)人的面部表情,讓人歡喜也讓人愁。上面在綠框中的圖像是原始圖像,其余的都是由 GANimation 生成的圖像。

      開源項(xiàng)目鏈接中包含了入門指南、數(shù)據(jù)準(zhǔn)備資源、預(yù)備知識(shí)以及 Python 代碼。正如論文作者所提到的,不要將它用于不道德的目的。

      英偉達(dá)的 FastPhotoStyle

      開源地址:https://github.com/NVIDIA/FastPhotoStyle

      FastPhotoStyle 這個(gè)開源項(xiàng)目跟前面提到的 Deep Painterly Harmonization 非常像。但值得一提的是,它來源于英偉達(dá)本身。正如你在上圖中所看到的,F(xiàn)astPhotoStyle 算法需要兩項(xiàng)輸入——一個(gè)樣式圖片和一個(gè)內(nèi)容圖片。這個(gè)算法之后會(huì)在這兩項(xiàng)輸入的其中一條路徑上運(yùn)行,來產(chǎn)生輸出——它或者使用逼真的圖像格式化代碼,或者使用語(yǔ)義標(biāo)記地圖(semantic label maps)。

      其他深度學(xué)習(xí)開源項(xiàng)目

      計(jì)算機(jī)視覺領(lǐng)域可能讓深度學(xué)習(xí)的其他工作都黯然失色,但是我還是想列出計(jì)算機(jī)視覺之外的幾個(gè)有代表性的開源項(xiàng)目。

      英偉達(dá)的 WaveGlow

      開源地址:https://github.com/NVIDIA/waveglow

      音頻處理是深度學(xué)習(xí)開始做出成績(jī)的另一領(lǐng)域。不局限于生成音樂,你也可以完成音頻分類、指紋識(shí)別、分割、標(biāo)注等任務(wù)。現(xiàn)在該領(lǐng)域還有很多可以探索的空間,誰(shuí)知道呢,也許你可以使用這些開源項(xiàng)目來走上人生巔峰。

      這里有兩篇非常直觀的文章,可以幫助你熟悉這項(xiàng)開源工作:

      • 《使用深度學(xué)習(xí)開始進(jìn)行音頻數(shù)據(jù)分析(附案例研究)》,Getting Started with Audio Data Analysis using Deep Learning (with case study):https://www./blog/2017/08/audio-voice-processing-deep-learning/

      • 《10 個(gè)音頻處理任務(wù)讓你開始深度學(xué)習(xí)應(yīng)用(附案例研究)》,10 Audio Processing Tasks to get you started with Deep Learning Applications (with Case Studies):https://www./blog/2018/01/10-audio-processing-projects-applications/

      重新回到英偉達(dá)這里。WaveGlow 是一個(gè)基于流的網(wǎng)絡(luò),能夠生成高質(zhì)量的音頻。本質(zhì)上,它是一個(gè)面向語(yǔ)音合成的單網(wǎng)絡(luò)。

      這個(gè)開源項(xiàng)目包括 WaveGlow 的 PyTorch 實(shí)現(xiàn),以及可供下載的預(yù)訓(xùn)練模型。同時(shí),研究者也在上面了列下了使用步驟。如果你想從頭開始訓(xùn)練自己的模型,可以遵照使用步驟。

      AstroNet

      開源地址:https://github.com/google-research/exoplanet-ml

      想要發(fā)現(xiàn)你自己的行星?AstroNet 這個(gè)開源項(xiàng)目也許被高估了些,但是確實(shí)能讓你離夢(mèng)想更近。2017 年 12 月,「谷歌大腦」團(tuán)隊(duì)就通過應(yīng)用 AstroNet 發(fā)現(xiàn)了兩個(gè)新的行星。AstroNet 是一個(gè)專門用來處理天文數(shù)據(jù)的深度神經(jīng)網(wǎng)絡(luò),它體現(xiàn)了深度學(xué)習(xí)更廣泛的應(yīng)用,同時(shí)也是一個(gè)真正的里程碑式的進(jìn)展。

      現(xiàn)在,這項(xiàng)技術(shù)的研發(fā)團(tuán)隊(duì)已經(jīng)對(duì)運(yùn)行 AstroNet 的整個(gè)代碼進(jìn)行了開源(提示:這個(gè)模型基于 CNNs!)。

      VisualDL – 可視化深度學(xué)習(xí)模型

      開源地址:https://github.com/PaddlePaddle/VisualDL

      誰(shuí)不喜歡可視化?但是想象深度學(xué)習(xí)模型怎么運(yùn)行,倒是有點(diǎn)嚇人。不過 VisualDL 通過設(shè)計(jì)特定的深度學(xué)習(xí)任務(wù),可以較好地減輕這些挑戰(zhàn)。

      針對(duì)可視化任務(wù),VisualDL 目前支持以下幾個(gè)部分:

      • 數(shù)量

      • 柱狀圖

      • 圖像

      • 音頻

      • 圖表

      • 高維的

      自然語(yǔ)言處理(NLP)

      很驚訝看到 NLP 排在榜單這么后的位置?這主要是因?yàn)槲蚁朐诒疚膶?duì)幾乎所有重要的開源項(xiàng)目盤點(diǎn)一番。在 NLP 之前的那些開源項(xiàng)目,我都大力推薦大家前往查看。在 NLP 部分,我提到的框架包括 ULMFiT、谷歌的 BERT、 ELMo 以及 Facebook 的 PyText。我會(huì)簡(jiǎn)要提一下 BERT 以及幾個(gè)其他的開源項(xiàng)目,因?yàn)槲野l(fā)現(xiàn)它們非常有用。

      谷歌的 BERT

      開源地址:https://github.com/google-research/bert

      NLP 這部分,我就不得不提 BERT 了。谷歌 AI 的這個(gè)開源項(xiàng)目為 NLP 領(lǐng)域帶來了突破,贏得了 NLP 愛好者以及專家等人的強(qiáng)烈關(guān)注。繼 ULMFiT 和 ELMo 之后,BERT 以它的性能戰(zhàn)勝了比賽,在 11 項(xiàng) NLP 任務(wù)中獲得最佳成績(jī)。

      除了我在上面附上的谷歌開源項(xiàng)目的官方鏈接,BERT 的 PyTorch 實(shí)現(xiàn)(查看地址:https://github.com/huggingface/pytorch-pretrained-BERT)也值得前往一看。至于它是否讓 NLP 步入了一個(gè)新時(shí)代,我們不久后就會(huì)知曉了。

      MatchZoo

      開源項(xiàng)目:https://github.com/NTMC-Community/MatchZoo

      MatchZoo 能幫助你知道模型在某個(gè)基準(zhǔn)上表現(xiàn)得怎么樣。對(duì)于 NLP,尤其是深度文本匹配模型,我發(fā)現(xiàn) MatchZoo 工具包非??孔V。MatchZoo 可應(yīng)用的其他相關(guān)任務(wù)包括:

      • 對(duì)話

      • 問答

      • 文本蘊(yùn)涵

      • 信息檢索

      • 釋義識(shí)別

      MatchZoo 2,0 版本目前還在開發(fā)中,因此不妨期待一下這個(gè)已經(jīng)很有用的工具箱再增加更多新的功能。

      NLP Progress

      開源地址:https://github.com/sebastianruder/NLP-progress

      這個(gè)開源項(xiàng)目是由 Sebastian Ruder 一人開發(fā)的,其目標(biāo)是追蹤 NLP 領(lǐng)域的最新進(jìn)展,它包含了數(shù)據(jù)集和最先進(jìn)的模型。

      任何一項(xiàng)你曾經(jīng)想進(jìn)行更過了解的 NLP 技術(shù)——現(xiàn)在就有一個(gè)擺在你面前的好機(jī)會(huì)。這個(gè)開源項(xiàng)目涵蓋了閱讀理解以及詞性標(biāo)注等傳統(tǒng)和核心的 NLP 任務(wù)。即使你只是隱約對(duì)這個(gè)領(lǐng)域感興趣,也一定要標(biāo)星/標(biāo)記好這個(gè)開源項(xiàng)目。

      自動(dòng)的機(jī)器學(xué)習(xí)(AutoML)

      2018 年,也是 AutoML 輝煌的一年。隨著工業(yè)界將機(jī)器學(xué)習(xí)集成到它們的核心工作中,其對(duì)數(shù)據(jù)科學(xué)專家的需求也在持續(xù)上升。目前,供給和需求間也存在著較大的差距,而 AutoML 工具則有可能填補(bǔ)這個(gè)差距。

      這些工具為那些缺乏數(shù)據(jù)科學(xué)專業(yè)知識(shí)的人所設(shè)計(jì)。雖然這些工具之外還有一些其他很好的工具,但是它們大部分的價(jià)格都要高得多——大多數(shù)個(gè)人負(fù)擔(dān)不起。因此,2018 年,我們這個(gè)很棒的開源社區(qū)前來支援大家,同時(shí)還帶來了兩個(gè)熱門的開源項(xiàng)目。

      Auto Keras

      開源地址:https://github.com/jhfjhfj1/autokeras

      幾個(gè)月前,Auto Keras 一經(jīng)發(fā)布就引起了轟動(dòng)。并且它必然會(huì)引起轟動(dòng)。長(zhǎng)期以來,深度學(xué)習(xí)被視為一個(gè)專業(yè)性非常強(qiáng)的領(lǐng)域,所以一個(gè)能夠自動(dòng)完成大部分任務(wù)的開發(fā)庫(kù)自然頗受歡迎。引用他們官網(wǎng)上的話:「Auto Keras 的最終目標(biāo)是為僅擁有一定數(shù)據(jù)科學(xué)知識(shí)或機(jī)器學(xué)習(xí)背景的行業(yè)專家提供可輕松應(yīng)用的深度學(xué)習(xí)工具」。

      你可以通過下方的種子來安裝這個(gè)開發(fā)庫(kù):

      這個(gè)開源項(xiàng)目還包含了一些簡(jiǎn)單的示例,可以讓你了解 Auto Keras 的整個(gè)工作流程。

      谷歌的 AdaNet

      開源地址:https://github.com/tensorflow/adanet

      AdaNet 是一個(gè)自動(dòng)學(xué)習(xí)高質(zhì)量模型的框架,對(duì)編程專業(yè)知識(shí)沒有要求。由于 AdaNet 由谷歌開發(fā),因此這一框架基于 TensorFlow。你可以使用 AdaNet 創(chuàng)建所有的模型,同時(shí)可以擴(kuò)展它的應(yīng)用去訓(xùn)練神經(jīng)網(wǎng)絡(luò)。

      強(qiáng)化學(xué)習(xí)

      因?yàn)槲以?2018 年的綜述文章中盤點(diǎn)過一些強(qiáng)化學(xué)習(xí)開源項(xiàng)目,因此這一章節(jié)的介紹會(huì)相當(dāng)簡(jiǎn)單。我希望在包括 RL 在內(nèi)的這些章節(jié)中,能夠促進(jìn)大家對(duì)我們這個(gè)社區(qū)的討論,也希望能過加速這一領(lǐng)域的研究進(jìn)程。

      首先,你可以先去看一下 OpenAI 的 Spinning Up 開源項(xiàng)目(項(xiàng)目地址:https://github.com/openai/spinningup),它是一個(gè)針對(duì)初學(xué)者的完全教育型的開源項(xiàng)目。然后可以去看看谷歌的 dopamine 開源項(xiàng)目(項(xiàng)目地址:https://github.com/google/dopamine),它是一個(gè)研究框架,用來加速這一仍舊處于初步發(fā)展階段的領(lǐng)域的研究。接下來,讓我們也了解一下其他的開源項(xiàng)目。

      DeepMimic

      開源地址:https://github.com/xbpeng/DeepMimic

      如果你在社交媒體上關(guān)注了一些研究者,你一定在視頻中看到過上面的圖像。一個(gè)棍形人在地面上奔跑,或者嘗試站起來,或者其他一些動(dòng)作。親愛的讀者,這些就是(人體)動(dòng)作中的強(qiáng)化學(xué)習(xí)。

      這里有一個(gè)強(qiáng)化學(xué)習(xí)的標(biāo)志性示例——訓(xùn)練仿真人形來模仿多個(gè)動(dòng)作技能。上面開源項(xiàng)目的鏈接頁(yè)面包括代碼、示例以及循序漸進(jìn)的練習(xí)指南。

      Reinforcement Learning Notebooks

      開源地址:https://github.com/Pulkit-Khandelwal/Reinforcement-Learning-Notebooks

      這個(gè)開源項(xiàng)目是一個(gè)強(qiáng)化學(xué)習(xí)算法集,這些算法來自 Richard Sutton 和 Andrew Barto 所寫的書以及其他研究論文,它們?cè)陂_源項(xiàng)目中以 Python notebooks 的格式呈現(xiàn)。

      正如該開源項(xiàng)目的開發(fā)者所提到的,如果你在學(xué)習(xí)的過程中同時(shí)進(jìn)行實(shí)操練習(xí),你就能真正學(xué)會(huì)它。這個(gè)項(xiàng)目比較復(fù)雜,如果不進(jìn)行實(shí)操或者僅僅像讀小說一樣去閱讀資源內(nèi)容,你將一無所獲。

      via:https://www./blog/2018/12/best-data-science-machine-learning-projects-github/ 雷鋒網(wǎng) AI 科技評(píng)論編譯

        本站是提供個(gè)人知識(shí)管理的網(wǎng)絡(luò)存儲(chǔ)空間,所有內(nèi)容均由用戶發(fā)布,不代表本站觀點(diǎn)。請(qǐng)注意甄別內(nèi)容中的聯(lián)系方式、誘導(dǎo)購(gòu)買等信息,謹(jǐn)防詐騙。如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請(qǐng)點(diǎn)擊一鍵舉報(bào)。
        轉(zhuǎn)藏 分享 獻(xiàn)花(0

        0條評(píng)論

        發(fā)表

        請(qǐng)遵守用戶 評(píng)論公約

        類似文章 更多