機(jī)器人會(huì)不會(huì)擇日把我們?nèi)珰⒌?,沒人知道。或許真正致力于人工智能研究的科學(xué)家們更不能確定。在社交新聞網(wǎng)站reddit的AMA論壇上,三名計(jì)算機(jī)科學(xué)家對(duì)這一問題的回答大相徑庭。 這三位科學(xué)家的實(shí)驗(yàn)室分別坐落于美國,法國和巴西,對(duì)這一問題有著充分的發(fā)言權(quán)。他們于近期開發(fā)了一項(xiàng)技術(shù),用于治療運(yùn)動(dòng)神經(jīng)元疾病伴隨的失憶癥狀。這是一種為人腦神經(jīng)結(jié)構(gòu)建模的自主學(xué)習(xí)程序。該程序在學(xué)習(xí)新知識(shí)前會(huì)把剛剛學(xué)到的知識(shí)忘得一干二凈。相同的遭遇讓它對(duì)失憶病人的病因了如指掌。
一位Reddit用戶的提問值得注意:spacex公司創(chuàng)始人Elon Musk和史蒂芬.霍金等人提出了"人工智能終結(jié)人類"論,如何消除因這一理論帶來的恐懼感?科學(xué)家們對(duì)此莫衷一是。
懷俄明大學(xué)研究員Jeff Clune寫道:"人腦是一臺(tái)非常復(fù)雜的機(jī)器,但隨著時(shí)間的推移,我們終將制造出和人腦一樣智能的機(jī)器。那時(shí)的機(jī)器人究竟會(huì)與我們和睦相處,還是會(huì)試圖奪取控制權(quán),答案不得而知。而一旦從人類手中奪取了控制權(quán),就不難猜測(cè)它們會(huì)對(duì)我們做什么了。" Clune還說,機(jī)器的智能程度超過我們只是時(shí)間的問題,盡管這是一個(gè)世紀(jì)以后的事情,但我們?nèi)皂毑扇〈胧?,以防不測(cè)。 而法國實(shí)驗(yàn)室研究員Jean-Baptiste Mouret不同意這種觀點(diǎn)。他認(rèn)為現(xiàn)在的計(jì)算機(jī)智能程度還很低,不會(huì)在短時(shí)間內(nèi)對(duì)人類造成威脅。人與電腦的區(qū)別在于單個(gè)與多個(gè)任務(wù)的完成能力以及思考能力。 “首先,我認(rèn)為人類距離任何‘真正的人工智能’都還很遙遠(yuǎn),人工智能領(lǐng)域的某些進(jìn)展(例如人臉識(shí)別,邏輯等)不能證明任何事情?!盡ouret寫道,“其次,真正令我恐懼的是人類給予那些笨機(jī)器過多的自主權(quán):假如機(jī)器人有權(quán)在經(jīng)過考慮后殺掉某個(gè)人類,我寧愿希望這些機(jī)器能更聰明些?!?/span> Nick Bostrom撰寫了一篇以現(xiàn)在為基點(diǎn)的文章:《超級(jí)智能:路徑,危險(xiǎn),和策略》。與這些喜歡哲學(xué)思辨的末世預(yù)言家不同的是,Mouret非常腳踏實(shí)地,他正在研究一個(gè)能夠同時(shí)學(xué)習(xí)多個(gè)技能的計(jì)算機(jī)程序。 對(duì)于人工智能可能帶來的危險(xiǎn),即便曾經(jīng)一起工作過的科學(xué)家們也會(huì)持有完全不同的觀點(diǎn)。這中間甚至有些人對(duì)機(jī)器人的定義提出質(zhì)疑。 |
|