乡下人产国偷v产偷v自拍,国产午夜片在线观看,婷婷成人亚洲综合国产麻豆,久久综合给合久久狠狠狠9

  • <output id="e9wm2"></output>
    <s id="e9wm2"><nobr id="e9wm2"><ins id="e9wm2"></ins></nobr></s>

    • 分享

      谷歌可解釋人工智能白皮書,27頁(yè)pdf,Google AI Explainability White...

       InfoRich 2019-12-13

      【導(dǎo)讀】近幾年,隨著人工智能的迅速發(fā)展,人工智能對(duì)各行各業(yè)也產(chǎn)生了深遠(yuǎn)的影響。圍繞人工智能建立的系統(tǒng)已經(jīng)對(duì)醫(yī)療、交通、刑事司法、金融風(fēng)險(xiǎn)管理和社會(huì)的許多其他領(lǐng)域產(chǎn)生了巨大的價(jià)值。然而,人工智能系統(tǒng)仍然具有很多問題,為了保證人工智能系統(tǒng)的有效性和公平性,需要我們對(duì)人工智能具有深刻的理解和控制能力。所以,今天專知小編給大家?guī)?lái)的是Google可解釋人工智能白皮書《AI Explainability Whitepaper》,總共27頁(yè)pdf,主要介紹谷歌的AI平臺(tái)上的AI的可解釋性。

      機(jī)器學(xué)習(xí)發(fā)展

      人工智能的迅速發(fā)展導(dǎo)致現(xiàn)在我們現(xiàn)在所研究和使用的AI模型越來(lái)越復(fù)雜化,從手工規(guī)則和啟發(fā)法線性模型決策樹再到集成和深度模型,最后再到最近的元學(xué)習(xí)模型

      這些變化已經(jīng)導(dǎo)致了多個(gè)維度上規(guī)范的變化:

      • 可表達(dá)性(Expressiveness),使我們能夠在越來(lái)越多的領(lǐng)域(如預(yù)測(cè)、排名、自主駕駛、粒子物理、藥物發(fā)現(xiàn)等)擬合各種各樣的功能。

      • 通用性(Versatility),解鎖數(shù)據(jù)模式(圖像,音頻,語(yǔ)音,文本,表格,時(shí)間序列等),并啟用聯(lián)合/多模式應(yīng)用。

      • 適應(yīng)性(Adaptability ),通過遷移學(xué)習(xí)和多任務(wù)學(xué)習(xí)來(lái)適應(yīng)小數(shù)據(jù)狀態(tài)。

      • 效率(Efficiency ),通過自定義優(yōu)化硬件,如gpu和TPUs,使研究人員可以更快地訓(xùn)練更大更復(fù)雜更強(qiáng)大的模型。

      然而,這些更復(fù)雜更強(qiáng)大的模型也變得越來(lái)越不透明,再加上這些模型基本上仍然是圍繞相關(guān)性和關(guān)聯(lián)建立的,這導(dǎo)致了以下幾個(gè)挑戰(zhàn)和問題:

      • 虛假的關(guān)聯(lián)性(Spurious correlations),這往往會(huì)妨礙模型的泛化能力,導(dǎo)致模型在現(xiàn)實(shí)場(chǎng)景下效果很差。

      • 模型的調(diào)試性和透明性的缺失(Loss of debuggability and transparency),這會(huì)導(dǎo)致模型難以調(diào)試和改進(jìn),同時(shí)這種透明度的缺乏阻礙了這些模型的應(yīng)用,尤其是在受到監(jiān)管的行業(yè),如銀行和金融或醫(yī)療保健行業(yè)。

      • 代理目標(biāo)(Proxy objectives),這會(huì)導(dǎo)致模型在線下的效果與實(shí)際場(chǎng)景下的效果存在很大的出入。

      • 模型的不可控(Loss of control)

      • 不受歡迎的數(shù)據(jù)放大(Undesirable data amplification)

      AI方法有:

      • 簡(jiǎn)單(基于規(guī)則且可解釋)

      • 復(fù)雜的(不是可解釋的)

      根據(jù)應(yīng)用不同,我們有明確的倫理、法律和商業(yè)理由來(lái)確保我們能夠解釋人工智能算法和模型如何工作。不幸的是,普通人可以解釋的簡(jiǎn)單人工智能方法缺乏優(yōu)化人工智能決策的準(zhǔn)確性。許多提供最佳精度的方法,如ANN(人工神經(jīng)網(wǎng)絡(luò)),都是復(fù)雜的模型,其設(shè)計(jì)并不是為了便于解釋。

      如圖所示,人工智能方法的準(zhǔn)確性和可解釋性之間存在著一種相反的關(guān)系。兩者之間的負(fù)相關(guān)關(guān)系如下: 解釋性越大,準(zhǔn)確性越低,反之亦然

      一些不太精確的模型仍然很受歡迎,因?yàn)樗鼈兙哂?strong>可模擬性(因此人類可以重復(fù)它們)、完全可解釋的計(jì)算過程(算法透明性)以及模型的每個(gè)部分都有一個(gè)直觀的解釋(可分解性)。

      隨著深度學(xué)習(xí)和強(qiáng)化學(xué)習(xí)的普及,對(duì)復(fù)雜神經(jīng)網(wǎng)絡(luò)的解釋需求激增,推動(dòng)了XAI工具的發(fā)展。最終目標(biāo): 實(shí)現(xiàn)負(fù)責(zé)任的、可追溯的、可理解的AIs。

      可解釋人工智能 XAI

      這些挑戰(zhàn)突出了對(duì)人工智能的可解釋性的需求,以使人們可控的發(fā)展人工智能。

      圍繞人工智能建立的系統(tǒng)將影響并在許多情況下重新定義醫(yī)療干預(yù)、自動(dòng)交通、刑事司法、金融風(fēng)險(xiǎn)管理和社會(huì)的許多其他領(lǐng)域。然而,考慮到上一節(jié)所強(qiáng)調(diào)的挑戰(zhàn),這些人工智能系統(tǒng)的有效性和公平性將取決于我們理解、解釋和控制它們的能力。

      自從幾十年前專家系統(tǒng)出現(xiàn)以來(lái),XAI(可解釋的AI)領(lǐng)域已經(jīng)復(fù)蘇。本文對(duì)一種嚴(yán)謹(jǐn)?shù)目茖W(xué)解釋的機(jī)器學(xué)習(xí),Doshi-Velez和Kim定義為“解釋性或呈現(xiàn)在人類可以理解的術(shù)語(yǔ)的能力“利用韋氏字典的定義“解釋”,它適應(yīng)人類和智能代理之間的交互。

      谷歌的人工智能可解釋白皮書(AI Explainability Whitepaper)是谷歌云的人工智能解釋產(chǎn)品的技術(shù)參考。它的目標(biāo)用戶是負(fù)責(zé)設(shè)計(jì)和交付ML模型的模型開發(fā)人員和數(shù)據(jù)科學(xué)家。谷歌云的可解釋產(chǎn)品的目標(biāo)是讓他們利用對(duì)AI解釋性來(lái)簡(jiǎn)化模型開發(fā),并解釋模型的行為。

      白皮書的目錄:

      • 特征歸因(Feature Attributions)

      • 特征歸因的限制和使用注意事項(xiàng)(Attribution Limitations and Usage Considerations)

      • 解釋模型元數(shù)據(jù)(Explanation Model Metadata)

      • 使用What-if工具的可視化(Visualizations with the What-If Tool)

      • 使用范例(Usage Examples)

      參考鏈接:

      https://cloud.google.com/ml-engine/docs/ai-explanations/overview

        本站是提供個(gè)人知識(shí)管理的網(wǎng)絡(luò)存儲(chǔ)空間,所有內(nèi)容均由用戶發(fā)布,不代表本站觀點(diǎn)。請(qǐng)注意甄別內(nèi)容中的聯(lián)系方式、誘導(dǎo)購(gòu)買等信息,謹(jǐn)防詐騙。如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請(qǐng)點(diǎn)擊一鍵舉報(bào)。
        轉(zhuǎn)藏 分享 獻(xiàn)花(0

        0條評(píng)論

        發(fā)表

        請(qǐng)遵守用戶 評(píng)論公約

        類似文章 更多