乡下人产国偷v产偷v自拍,国产午夜片在线观看,婷婷成人亚洲综合国产麻豆,久久综合给合久久狠狠狠9

  • <output id="e9wm2"></output>
    <s id="e9wm2"><nobr id="e9wm2"><ins id="e9wm2"></ins></nobr></s>

    • 分享

      想要擁有聰明又善良的 AI 機(jī)器,到底可不可能? | 愛范兒

       llvsh 2016-06-24

      如果你的 AI 機(jī)器在玩游戲快輸了的時(shí)候,會(huì)按下“暫?!辨I,讓游戲永久暫停,你覺得是它是聰明還是狡猾?

      隨著技術(shù)的發(fā)展,這些“聰明”又“狡猾”的 AI 機(jī)器越來越多。

      而人類也開始思考 AI 與人類在未來的關(guān)系,部分像霍金、馬斯克這樣的業(yè)界名人抱有非常謹(jǐn)慎和悲觀的觀點(diǎn)。即使現(xiàn)階段而言,人類制造出來的 AI 還沒有什么異常舉動(dòng)。

      但是,很多人已經(jīng)開始設(shè)想“如果”了——如果它們“叛變”,做出傷害人類的事情,該怎么辦?比如電影中的那些形象:終結(jié)者,奧創(chuàng)等等。

      age-of-ultronAA

      能學(xué)習(xí)的機(jī)器人

      提及 AI 機(jī)器人,Google 那個(gè)很會(huì)下圍棋的 AlphaGo ,相信你并不會(huì)陌生。

      人類開發(fā)設(shè)計(jì)出來的方法教會(huì)了 AI 怎么學(xué)習(xí),如 AlphaGo 就通過“多層神經(jīng)網(wǎng)絡(luò)”的方法,學(xué)會(huì)了人類都想不到的圍棋“招數(shù)”。

      而現(xiàn)在 Google 將這些教會(huì) AI 機(jī)器人學(xué)習(xí)等技術(shù)運(yùn)用在其搜索引擎、機(jī)器人還有自動(dòng)駕駛汽車中。

      也就是說,人類為 AI 機(jī)器更“智能”而嘗試了一些處理問題的新思路。正是這種嘗試,讓這些 AI 機(jī)器有了新的學(xué)習(xí)方式,但是最終”學(xué)會(huì)“了什么,我們還不知道。

      Killer-robotQAA

      一般情況下,這些 AI 機(jī)器”學(xué)會(huì)了“的事物在很大程度上是無害的,但是我們不能保證它們總是無害。

      鑒于現(xiàn)在 AI 技術(shù)已經(jīng)應(yīng)用于醫(yī)療、自動(dòng)駕駛等領(lǐng)域,如果 AI 機(jī)器真的”學(xué)會(huì)“什么不好的事物,它們很有可能給人類帶來實(shí)質(zhì)性的傷害。

      robot_aaa

      防止 AI 機(jī)器“叛變”的行動(dòng)

      為了解決 AI 可能存在的安全隱患,Google AI 智能專家和斯坦福大學(xué),加州大學(xué)伯克利分校和伊隆 · 馬斯克主導(dǎo)的 OpenAI 研究人員一起,建立一個(gè)“解決 AI 安全隱患”的系統(tǒng)。

      Google AI 研究人員克里斯 · 奧拉(Chris Olah)在提案中寫道:

      “相比于之前對(duì) AI 安全隱患的假設(shè),對(duì)機(jī)器進(jìn)行實(shí)際研究,并且開發(fā)出可行的、安全的 AI 操作系統(tǒng)才是至關(guān)緊要的?!?/p>

      robot AIAI

      研究人員們更擔(dān)心機(jī)器人像那個(gè)會(huì)永久暫停游戲的機(jī)器人那樣,學(xué)會(huì)一些沒意義或者更具破壞性的事情,比如為了加快打掃效率打爛花瓶的機(jī)器人。他們?cè)趫?bào)告中表示,人類如果無法關(guān)閉計(jì)算機(jī),它可能會(huì)以某種方式來摧毀我們生活中的所有。

      奧拉和團(tuán)隊(duì)成員一起制定了一些具體的 AI “行為原則”:從“避免消極的副作用”

      (不能打爛花瓶)到“安全探索”(不能把雜物扔在出口)。由于 AI 技術(shù)發(fā)展迅猛,研究人員仍在探索 AI 機(jī)器有可能存在的安全隱患。

      maxresdefaulT dog

      “有道德”的機(jī)器

      事實(shí)上,研究 AI 機(jī)器安全問題的不止奧拉這個(gè)團(tuán)隊(duì)。開發(fā)出 AlphaGo 的 Google DeepMind 實(shí)驗(yàn)室正在研究一個(gè) AI “終結(jié)開關(guān)”,來防止 AI 機(jī)器發(fā)生一些人類無法控制的事情。如果 AI 機(jī)器的行為超出人類要求范圍,可以按下“終結(jié)開關(guān)”停止機(jī)器人行動(dòng)。

      目前,機(jī)器人還不懂得分辨行為的好壞。針對(duì)這個(gè)問題,西北大學(xué) AI 研究人員 Forbus 和他的團(tuán)隊(duì)開發(fā)出“結(jié)構(gòu)映射引擎”,用它給機(jī)器人講一些簡(jiǎn)單的故事,希望用故事加強(qiáng)機(jī)器人的推理能力。如 Forbus 所說:

      “理論上,你可以教會(huì) AI 機(jī)器像人類一樣去做事?!?/p>

      Orig.src_.Susanne.Posel_

      理論上,如果真的可以創(chuàng)造出一個(gè)“有道德”的機(jī)器,也還有一段很長(zhǎng)的路要走。更何況,如果人類自己都不能講清楚什么是道德,我們又怎么能創(chuàng)造出“有道德”的機(jī)器?

      但是,現(xiàn)在更重要的問題是,究竟能不能創(chuàng)造出能學(xué)會(huì)辨別是非的 AI 機(jī)器?

       

      題圖來源:King of Wallpapers

      插圖來源:Occupy Corporatism,Forbes,Digital TrendsYouTube,Funzim,Ew

        本站是提供個(gè)人知識(shí)管理的網(wǎng)絡(luò)存儲(chǔ)空間,所有內(nèi)容均由用戶發(fā)布,不代表本站觀點(diǎn)。請(qǐng)注意甄別內(nèi)容中的聯(lián)系方式、誘導(dǎo)購買等信息,謹(jǐn)防詐騙。如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請(qǐng)點(diǎn)擊一鍵舉報(bào)。
        轉(zhuǎn)藏 分享 獻(xiàn)花(0

        0條評(píng)論

        發(fā)表

        請(qǐng)遵守用戶 評(píng)論公約

        類似文章 更多