
英國(guó)知名物理學(xué)家霍金 鳳凰科技訊 北京時(shí)間10月20日消息,英國(guó)知名物理學(xué)家霍金(Stephen Hawking)最近警告稱,發(fā)明AI(人工智能)可能會(huì)成為人類歷史上最大的災(zāi)難,如果管理不善,會(huì)思考的機(jī)器可能會(huì)為文明劃上句號(hào)。 霍金認(rèn)為:“對(duì)于人類來說,強(qiáng)大AI的出現(xiàn)可能是最美妙的事,也可能是最糟糕的事,我們真的不知道結(jié)局會(huì)怎樣。” 昨天,新的劍橋中心投入運(yùn)營(yíng),在慶祝典禮上霍金發(fā)表了演講。新的劍橋中心有一項(xiàng)使命:化解AI風(fēng)險(xiǎn),破解AI難題。 霍金對(duì)AI的無節(jié)制發(fā)展提出批評(píng),他認(rèn)為,AI技術(shù)的確有希望帶來巨大的福利,比如根除疾病和貧困,但是它同樣也可能帶來危險(xiǎn),比如強(qiáng)大的自主式武器,或者幫助少數(shù)人壓迫多數(shù)人?;艚鸱Q:“AI會(huì)給我們的經(jīng)濟(jì)帶來巨大破壞力,未來,AI會(huì)有自己的意志,它的意志可能會(huì)與我們的意愿產(chǎn)生沖突。” 最近一段時(shí)間,AI取得了許多突破,其發(fā)展速度超過了許多人的預(yù)期。谷歌DeepMind開發(fā)的AI系統(tǒng)已經(jīng)在圍棋上打敗了世界冠軍。本周三,微軟宣稱它所開發(fā)的語音識(shí)別技術(shù)已經(jīng)可以和人類相提并論。 有許多人對(duì)AI保持懷疑態(tài)度,霍金是當(dāng)中最著名的一位。去年,1000多名專家和研究人員在公開信上簽名,警告世人可能會(huì)出現(xiàn)AI武器,霍金正是其中一位。(編譯/虎濤) 想看更多國(guó)外有意思的、新奇的科技新聞?那就來掃碼關(guān)注外言社(微信號(hào):ifengwys)的官方微信吧。
|