乡下人产国偷v产偷v自拍,国产午夜片在线观看,婷婷成人亚洲综合国产麻豆,久久综合给合久久狠狠狠9

  • <output id="e9wm2"></output>
    <s id="e9wm2"><nobr id="e9wm2"><ins id="e9wm2"></ins></nobr></s>

    • 分享

      性能提升25倍:Rust有望取代C和C ,成為機(jī)器學(xué)習(xí)首選的Python后端

       覓書時代 2020-01-29
      作者 | lpalmieri
      譯者 | 王強
      策劃 | 蔡芳芳
      AI 前線導(dǎo)讀: 在機(jī)器學(xué)習(xí)開發(fā)領(lǐng)域,如果我們縱觀全局,撇除所有微小的細(xì)節(jié),那么就可以提煉出機(jī)器學(xué)習(xí)開發(fā)中的兩大不變步驟:模型訓(xùn)練和預(yù)測(或推斷)。如今,機(jī)器學(xué)習(xí)的首選語言是 Python(除非你的工作環(huán)境有一些不尋常的約束才會有所不同),而這篇文章會帶你走過一段新的旅程。希望當(dāng)你看到最后會發(fā)現(xiàn),使用 Rust 作為 訓(xùn)練后端部署平臺 的主意并不像聽起來那樣瘋狂或令人困惑(除了標(biāo)題提到的性能提升外,這種做法的好處其實還有很多)。

      為什么選擇 Python?

      我們可以花很多時間討論機(jī)器學(xué)習(xí)開發(fā)中使用的各種工作流,但如果說我們通常是以一種 探索性 的方式來訓(xùn)練模型,這通常是沒有爭議的。你有一組數(shù)據(jù),然后把它們切成許多片段從而更好地理解它們,接著嘗試各種方法來解決你所關(guān)注的特定問題。(在谷歌街景圖片中識別出小貓?天氣預(yù)報?抑或是作物產(chǎn)量優(yōu)化?做什么你來定?。?/p>

      這一路上會有很多陷阱,最后你嘗試使用的大多數(shù)技術(shù)都不是開箱即用的,因此重點在于 快速的原型設(shè)計迭代 改進(jìn)。

      對于像 Python 這樣的動態(tài)編程語言,這是一個理想的使用場景。

      更重要的是,你要考慮到大多數(shù)機(jī)器學(xué)習(xí)實踐者會有統(tǒng)計學(xué)、數(shù)學(xué)、物理或類似學(xué)位的背景,卻不是計算機(jī)科學(xué)專家,也就是說他們(我也一樣?)幾乎沒有接受過軟件工程實踐和工具方面的訓(xùn)練。

      雖說 Python 同時支持函數(shù)式和面向?qū)ο蟮哪J?,但你可以使用命令式風(fēng)格,憑借其腳本功能來快速上手。它的入門門檻很低,隨著你的經(jīng)驗提升,越來越精于此道,Python 也會與你一同成長。

      但是,僅僅易用是遠(yuǎn)遠(yuǎn)不夠的:訓(xùn)練機(jī)器學(xué)習(xí)模型需要大量的繁瑣運算,而 Python 絕對不是最快的編程語言。

      于是我們看到 NumPy(1995/2006)、SciPy(2001)、Pandas(2008)和 Scikit-learn(2007)魚貫入場。如果沒有這樣一個用于機(jī)器學(xué)習(xí)和科學(xué)計算的、高質(zhì)量且覆蓋全面的工具包,Python 就不會取得今天的地位。

      然而,如果你深入背后探究一番,就會發(fā)現(xiàn)那里沒有多少 Python 的位置:你正在使用 Python 來編排和利用 一個 C 和 C++ 例程的強大內(nèi)核。

      Python 是這些系統(tǒng)的前端,用戶用 Python 這個用戶界面將它們輕松地粘合在一起。C 和 C++ 才是你的后端,是幕后的魔力源泉。

      確實,這是 Python 經(jīng)常被忽略的特性:使用其 外函數(shù)接口(FFI)與其他編程語言互操作相當(dāng)容易。特別是,Python 庫可以將需要大量數(shù)字運算的程序代碼委派給 C 和 C++,這是 Python 科學(xué)生態(tài)系統(tǒng)中 所有 基礎(chǔ)庫都在使用的策略。

      當(dāng)然,技術(shù)永遠(yuǎn)無法決定一切。社會學(xué)因素對于大多數(shù)項目的成功(或消亡)都是至關(guān)重要的,即使有些人覺得這難以接受。

      因此我們應(yīng)該再補充一些背景:Python 是一個開放源代碼項目(嗨,MATLAB?。趯W(xué)術(shù)機(jī)構(gòu)中的滲透水平是不可忽略的;而且事實上,當(dāng)深度學(xué)習(xí)走進(jìn)聚光燈下時,與它相關(guān)的多數(shù)科學(xué)生態(tài)系統(tǒng)已經(jīng)建立完畢了。

      事后看來,將 Python 視為會在機(jī)器學(xué)習(xí)領(lǐng)域占據(jù)統(tǒng)治地位的強大候選者是很自然的事情,結(jié)果也并不出人意料。

      我們今后還應(yīng)該繼續(xù)使用 Python 嗎?

      前面我們簡要地介紹了將 Python 作為機(jī)器學(xué)習(xí)開發(fā)首選編程語言的部分原因。

      但世界并不是靜止不變的:背景環(huán)境的變化可以大大改變?nèi)藗儗δ姆N工具是“最佳工作工具”的認(rèn)識。

      一些最新趨勢可能會加強 Python 在機(jī)器學(xué)習(xí)領(lǐng)域的地位。

      微服務(wù)

      微服務(wù)架構(gòu)目前在架構(gòu)設(shè)計方法中占主導(dǎo)地位:公司用松散的容器化服務(wù)集合來運行他們的業(yè)務(wù),這些服務(wù)通過網(wǎng)絡(luò)相互通信。

      運行一個 Polyglot 堆棧從未如此簡單:你的主應(yīng)用程序和業(yè)務(wù)邏輯的精華都可以用 Java 編寫——當(dāng)你想利用機(jī)器學(xué)習(xí)來確定某筆信用卡交易是合法還是欺詐時,你可以發(fā)出一個 POST 請求到一個 Python 微服務(wù)上。

      數(shù)據(jù)科學(xué)家和機(jī)器學(xué)習(xí)工程師用 Python 執(zhí)行模型探索的日子已經(jīng)一去不復(fù)返了,如今我們將所有內(nèi)容移交給“生產(chǎn)團(tuán)隊”,后者會用公司選擇的語言全面重寫邏輯。

      DevOps

      你構(gòu)建,你運行——Werner Vogels(亞馬遜 CTO)

      既然我們談?wù)摰氖菢I(yè)務(wù),那就必須強調(diào)一點:機(jī)器學(xué)習(xí)模型不是憑空存在的,它們是公司要啟動、優(yōu)化或改進(jìn)的產(chǎn)品或過程的一部分。

      因此,僅由數(shù)據(jù)科學(xué)家組成的團(tuán)隊就能取得顯著的成績——是很天真的想法。你需要的東西遠(yuǎn)不止這些。

      如果要獲得成功的機(jī)會,則需要從產(chǎn)品到軟件工程的各種技能的組合。

      那么這樣的團(tuán)隊?wèi)?yīng)該使用哪種編程語言?

      記住 JavaScript 的興起歷程:同一個人使用 JavaScript 和 NodeJS,就可以同時處理系統(tǒng)的前端和后端工作(“全?!保?/p>

      作為通用編程語言的 Python 提供了相同的便利。你可以將其科學(xué)堆棧用于機(jī)器學(xué)習(xí)開發(fā),并利用其框架(Django、Flask 和 FastAPI 等)進(jìn)行模型部署,再通過 REST 或 gRPC API 提供預(yù)測。

      很好,不是嗎?

      連鎖效應(yīng)
      1. Python 擁有一個龐大的機(jī)器學(xué)習(xí)生態(tài)系統(tǒng);

      2. 你希望自己的機(jī)器學(xué)習(xí)算法或機(jī)器學(xué)習(xí)框架能被采納:所以你使用 Python 編寫代碼(或使用 FFI 為它提供 Python 綁定);

      3. Python 生態(tài)系統(tǒng)變得更強大了。

      循環(huán)往復(fù)。

      答案

      明天我們可能還是會用 Python 來編寫機(jī)器學(xué)習(xí)軟件。

      我們會永遠(yuǎn)使用它嗎?不太可能,這就像在問自己,從現(xiàn)在起 10 年后計算機(jī)產(chǎn)業(yè)的未來會是什么樣。

      但是我不會押注說未來 5 年我們就能看到 Python 的落日。

      所以呢?這篇文章不是要談 Rust 的嗎?

      沒錯!

      但更重要的是,在開始談?wù)撜}之前消除所有可能的誤解。

      我不相信 Rust 會取代 Python 成為機(jī)器學(xué)習(xí)的首選語言——這事完全沒有任何苗頭,不管是今天還是未來,這都不是什么趨勢。

      這兩門語言無法迎合相同的人群,并且它們針對的是不同的約束條件,做了不同的優(yōu)化工作,解決的是一系列不同的問題。

      但是 Rust 在機(jī)器學(xué)習(xí)世界中有自己的一席之地。

      Rust 具有 取代 C 和 C++,成為機(jī)器學(xué)習(xí)負(fù)載首選的 Python 后端 的巨大潛力。

      為什么是 Rust?

      沒有比這本書的 序言 更好的答案了:

      例如,“系統(tǒng)級”地處理內(nèi)存管理、數(shù)據(jù)表示和并發(fā)性的底層細(xì)節(jié)。傳統(tǒng)上,這種編程領(lǐng)域被視為是神秘的王國,只有少數(shù)一些已經(jīng)花了足夠的時間學(xué)習(xí),以避免其臭名昭著陷阱的人們才能踏入其中。即使是實踐它的那些人們也要謹(jǐn)慎行事,以免他們的代碼易受攻擊、容易崩潰或損壞。

      Rust 消除了那些舊有的陷阱,并提供了一套友好而精致的工具來幫助你披荊斬棘,打破這些障礙。那些需要“深入”到較底層控制的程序員可以使用 Rust 來做到這一點,而不必承擔(dān)崩潰或出現(xiàn)安全漏洞的常見風(fēng)險,也不必領(lǐng)悟多變的工具鏈的精髓所在。更好的是,這種語言旨在引導(dǎo)你自然地開始使用在性能和內(nèi)存使用方面效率出色的可靠代碼。

      Rust 以徹底領(lǐng)先的信心水平提供了與 C 和 C++ 相當(dāng)?shù)男阅堋?/p>

      你相信編譯器知道你所不知道的內(nèi)容:換句話說,你從“這到底是什么?”安全地轉(zhuǎn)到了“讓我們在生產(chǎn)中運行這些代碼!”的這條路線上。

      這大大降低了入門的門檻。

      讓更多的人(又包括我?)可以編寫高性能的機(jī)器學(xué)習(xí)算法。

      越來越多的人可以為他們每天使用的那些項目的后端做出貢獻(xiàn)。

      這會催生一個更大的社區(qū)、更多的實驗和更可持續(xù)的項目——換句話說,催生一個更健康、更多樣化的生態(tài)系統(tǒng)。

      回到我之前提到的那些趨勢,你會再次發(fā)現(xiàn)全棧帶來的強大力量:負(fù)責(zé)模型探索的那個人(使用 Python)可以深入研究并使用 Rust 重寫其熱路徑,來優(yōu)化最終解決方案。。

      但在 實踐 中這樣做的難度如何呢?

      用 Rust 實現(xiàn)聚類算法能快多少?

      我為 RustFest 2019 準(zhǔn)備了一個 研討會:我們使用 ndarray(一個 NumPy 的 Rust 等效方案)從零開始實現(xiàn)了 K-Means 聚類算法。

      幾周前,我寫了一些關(guān)于研討會的 筆記,相關(guān)材料 可以在 GitHub 上找到:它由一系列測試驅(qū)動的練習(xí)構(gòu)成,每個步驟都為最終解決方案作出了貢獻(xiàn)。

      我不能忽視這個問題:與 scikit-learn 相比,Rust 中 K-Means 的范例實現(xiàn)有多快?

      我和一群同樣對此問題剛到好奇的人在 RustFest 度過了兩天 實現(xiàn)日,最后給出了答案。

      如果沒有 @sitegui、@dunnock 和 @ThomAub,這個過程會花費更長的時間:非常感謝你們的幫助!

      實現(xiàn)

      我用 Rust crate 發(fā)布了一個清理過的 K-Means 實現(xiàn):linfa-clustering(https:///crates/linfa-clustering)。linfa-clustering 是 linfa(https:///crates/linfa)的一個子集——我們稍后會詳細(xì)討論后者。

      從源代碼中你可以看出來,重點在于清晰易懂的優(yōu)化配置:它是 Lloyd 算法 的實現(xiàn)范例。

      大多數(shù)提速機(jī)會都沒有得到利用,并且肯定還有進(jìn)一步調(diào)優(yōu)和打磨的空間——例如,它只將多線程用于分配步驟,而更新步驟還是單線程的。

      為了進(jìn)行正面比較,我為此編寫了 Python 綁定(https://github.com/LukeMathWalker/linfa-python):linfa is on PyPi(https:///project/linfa/),作為 Python 庫。

      我想重點對比一下:

      • 訓(xùn)練時間;

      • 推理時間,模型 作為一個 gRPC 微服務(wù) 公開時所測得的時間。

      我們測量將模型作為微服務(wù)公開來提供預(yù)測需要的時間,這更接近在實際生產(chǎn)環(huán)境中使用此代碼的表現(xiàn)。

      你可以在 GitHub 上獲得重現(xiàn)基準(zhǔn)測試的說明、結(jié)果和代碼(https://github.com/LukeMathWalker/clustering-benchmarks)。

      訓(xùn)練基準(zhǔn)測試
      使用 pytest-benchmark)在一個 100 萬點的數(shù)據(jù)集上訓(xùn)練 K-Means 模型時,linfa 的 訓(xùn)練 速度是 scikit-learn 的 1.3 倍。
      平均訓(xùn)練時間(毫秒)
      Linfa(Rust 上的 Python 包裝器)467.2
      Scikit Learn604.7(慢 1.3 倍)

      總體而言,它們的速度比較接近——由于分配步驟是并行的,linfa 可能會稍微快一些。

      如果你對這個結(jié)果感到疑惑,請再想一想:我們正在將一個只花了兩天時間的 教學(xué)研討會 實現(xiàn)與目前最完善的機(jī)器學(xué)習(xí)框架所使用的實現(xiàn)進(jìn)行比較。

      太瘋狂了。

      從基準(zhǔn)測試代碼中可以看到,linfa K-Means 實現(xiàn)提供了一個類似于 scikit-learn 的界面。

      我也想給你介紹 Rust 版本——界面看起來略有不同(出于某種原因,我可能會在另一篇博客文章中談?wù)摯耸拢悄憧梢暂p松地找出相同的步驟:

      推理基準(zhǔn)測試

      如前所述,使用一個專用微服務(wù)為機(jī)器學(xué)習(xí)模型提供服務(wù),在業(yè)界已是一種既定模式。

      但在這些微服務(wù)中,往往很少或幾乎沒有業(yè)務(wù)邏輯:它們無非就是一個 遠(yuǎn)程函數(shù)調(diào)用 而已。

      給定一個序列化的機(jī)器學(xué)習(xí)模型,我們是否可以完全自動化 / 抽象 API 生成?隨著 Tensorflow Serving 越來越受歡迎,我的想法得到了驗證。

      因此我決定針對三種場景進(jìn)行基準(zhǔn)測試:

      • scikit-learn 的 K-means 運行在 Python 的 gRPC 服務(wù)器上;
      • linfa 的 K-means(Python 包裝器)運行在 Python 的 gRPC 服務(wù)器上;
      • linfa 的 K-means(Rust)運行在 Rust 的 gRPC 服務(wù)器(tonic,https://github.com/hyperium/tonic)上。

      我尚未在這些 gRPC Web 服務(wù)器上做任何形式的調(diào)優(yōu):我們要評價的是開箱即用的性能。我再次邀請你查看源代碼(Rust/Python)。

      Rust Web 服務(wù)器上的 linfa 每秒處理的請求數(shù)是 scikit-learn 的 25 倍,是 python gRPC 服務(wù)器上的 linfa(Python 包裝器)的 7 倍。

      延遲(提供響應(yīng)需要多長時間)也是如此,其中 Rust Web 服務(wù)器上的 linfa 始終 比 scikit-learn 快 25 倍,比 Python Web 服務(wù)器上的 linfa(Python 包裝器)快 6 倍。

      Rust Web 服務(wù)器上的 linfa 在重負(fù)載下的錯誤率也是最低的。

      新的工作流

      這項實驗規(guī)模太小,無法得出確切的結(jié)論,而且我相信你可以找到針對 K-Means 的 Lloyds 算法的更快實現(xiàn)。

      但我希望這些結(jié)果足以說服你,Rust 確實可以在機(jī)器學(xué)習(xí)開發(fā)中發(fā)揮重要作用。所有人只要學(xué)一些 ndarray 的用法(可以試試研討會提供的材料),就可以寫出這樣的 Rust 實現(xiàn)——可就因為 C 和 C++ 的入門門檻,大批機(jī)器學(xué)習(xí)從業(yè)者浪費了多少潛能?

      如果這還不夠,我還想告訴你,Rust 不僅可以替換掉 Python 的 C 和 C++ 后端——它還可以利用其不斷發(fā)展的異步生態(tài)系統(tǒng)來處理部署工作。

      做起來很簡單:

      • 使用基于 Rust 的 Python 庫識別候選模型;

      • 序列化最終模型;

      • 提供最終模型的路徑和輸入數(shù)據(jù)的預(yù)期模式作為配置;

      • 收獲果實吧。

      這絕對是一個值得在 2020 年探索的想法。

      走下去

      如前所述,linfa-clustering 是 linfa 的子集,后者是 Rust 中的通用機(jī)器學(xué)習(xí)框架,我計劃在 2020 年專注研究這個框架。

      甚至在此時將其稱為一個框架還為時過早:linfa-clustering 之外就沒什么東西了??。

      要實現(xiàn)其大膽的使命宣言還有很長的路要走,但在機(jī)器學(xué)習(xí)及其相關(guān)領(lǐng)域,對 Rust 生態(tài)系統(tǒng)的興趣愈加濃厚:https://github.com/rust-ml/discussion/issues/1,https://github.com/rust-lang/wg-governance/issues/11,https://github.com/rust-lang/wg-governance/issues/11。

      有時你只需點燃星星之火,即可期待它熊熊燎原。

      實際上,我堅信只有社區(qū)努力推動,才能在 Rust 中扶持、建立和維持一個機(jī)器學(xué)習(xí)生態(tài)系統(tǒng)——并沒有捷徑可言。

      Rust 生態(tài)系統(tǒng)確實包含豐富的機(jī)器學(xué)習(xí) crates——看看在 上搜索 machine learning 會 返回 多少東西吧。

      我們無需從頭開始重寫所有內(nèi)容:我將 linfa 視為一個元包,一個 Rust 生態(tài)系統(tǒng)中精選的算法實現(xiàn)的集合。它是滿足你機(jī)器學(xué)習(xí)需求的第一站,就像是 Python 中的 scikit-learn 一樣。

      如果這篇文章引起了你的共鳴,請看一看路線圖 (https://github.com/LukeMathWalker/linfa/issues)——我期待你的貢獻(xiàn)!

      非常歡迎你提供關(guān)于本文的注釋、建議和反饋:你可以在 Twitter 上 @algo_luca,在 GitHub 上 @LukeMathWalker,或通過電子郵件 rust@ 與我聯(lián)系。

      延伸閱讀:

      https://www./posts/2019-12-01-taking-ml-to-production-with-rust-a-25x-speedup/


        本站是提供個人知識管理的網(wǎng)絡(luò)存儲空間,所有內(nèi)容均由用戶發(fā)布,不代表本站觀點。請注意甄別內(nèi)容中的聯(lián)系方式、誘導(dǎo)購買等信息,謹(jǐn)防詐騙。如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請點擊一鍵舉報。
        轉(zhuǎn)藏 分享 獻(xiàn)花(0

        0條評論

        發(fā)表

        請遵守用戶 評論公約

        類似文章 更多