![]()
機(jī)器人“robot”一詞源自捷克語(yǔ)“robota”,意思是“強(qiáng)迫勞動(dòng)”。1920年,捷克斯洛伐克作家薩佩克寫(xiě)了一個(gè)名為《洛桑萬(wàn)能機(jī)器人公司》的劇本,他把機(jī)器人的地位確定為只管埋頭干活、任由人類壓榨的奴隸,它們存在的價(jià)值只是服務(wù)于人類。它們沒(méi)有思維能力,不能思考,只是類似人的機(jī)器,很能干,以便使人擺脫勞作??梢哉f(shuō)robot誕生之初就確定了它們可悲的奴隸命運(yùn)。但是隨著人工智能的出現(xiàn),當(dāng)機(jī)器人有一天變得比人還要聰明時(shí),它們還會(huì)永遠(yuǎn)服從人的指令嗎? 機(jī)器人的圣經(jīng) 為了避免機(jī)器人殘害人類,科幻巨匠阿西莫夫曾提出了機(jī)器人三定律-- 第一定律:機(jī)器人不得傷害人類,或因不作為使人類受到傷害。 第二定律:除非違背第一定律,機(jī)器人必須服從人類的命令。 第三定律:除非違背第一及第二定律,機(jī)器人必須保護(hù)自己。 但后來(lái),阿西莫夫加入了一條新定律--第零定律:即機(jī)器人不得傷害人類整體,或因不作為使人類整體受到傷害。 在阿西莫夫以前,還沒(méi)有人能夠提出這么具有歷史意義的機(jī)器人法則,可以說(shuō)直到今天還沒(méi)有人能夠提出優(yōu)于阿西莫夫的定律,因此說(shuō)它是機(jī)器人的圣經(jīng)一點(diǎn)也不為過(guò)。阿西莫夫本人也曾經(jīng)自豪地說(shuō)過(guò):“三定律是理性人類對(duì)待機(jī)器人(或者任何別的東西)的唯一方式?!?/p> 因此人們認(rèn)為,只要按照阿西莫夫的思想來(lái)設(shè)計(jì)的機(jī)器人一定是安全的,人們可以隨心所欲地控制它們的行為。那時(shí)候的機(jī)器是一個(gè)確定性的系統(tǒng),只需加載一條條指令,它們就按程序員所設(shè)想的那樣工作。但是今天,情況發(fā)生了變化。人工智能的設(shè)計(jì)發(fā)生了很大變化,科學(xué)家們意識(shí)到,那種馮·諾伊曼式的自上而下的控制式程序不太可能實(shí)現(xiàn)人工智能,現(xiàn)今最優(yōu)秀的人工智能都是基于遺傳算法,它模擬的是大腦的神經(jīng)網(wǎng)絡(luò)的工作方式。人們?yōu)檫@樣的技術(shù)付出的代價(jià)就是,人們?cè)僖膊豢赡芡耆斫馊斯ぶ悄苁侨绾喂ぷ鞯牧恕?/p> 三定律的缺陷 機(jī)器人三定律并不是完善的。這三條定律的缺陷、漏洞和模糊之處不可避免會(huì)導(dǎo)致一些奇怪的機(jī)器人行為。比方說(shuō),這三條定律連何為“人”、何為“機(jī)器人”都沒(méi)有良好定義,而且,如果機(jī)器人獲取的信息不完整,它們完全可以無(wú)意中打破定律;所以說(shuō)機(jī)器人三定律概念不清。正是因?yàn)檫@種概念不清,才導(dǎo)致出現(xiàn)了各種各樣危險(xiǎn)的機(jī)器人。此外,三定律自身就存在著嚴(yán)重的邏輯矛盾。 第一定律說(shuō),機(jī)器人不得傷害人類,或因不作為使人類受到傷害。假如兩人互相斗毆,機(jī)器人應(yīng)當(dāng)選擇幫誰(shuí)呢?加入任一方都違反第一定律前半部分,不加入?yún)s又違反第一定律后半部分。 第二定律,除非違背第一定律,機(jī)器人必須服從人類的命令。于是主人說(shuō)你幫我去搶銀行吧,搶銀行也是一種工作,不違反第一條,那么機(jī)器人一定是去搶銀行或者制作炸藥。那么這種違法的事情算不算違背第一定律? 第三定律,除非違背第一及第二定律,機(jī)器人必須保護(hù)自己。欺騙算不算是違背第一及第二定律?比如機(jī)器人給出虛假答案甚至制造虛幻生活的環(huán)境,算不算違背第一及第二定律? 第零定律,阿西莫夫只是偷換了概念,把第一條的個(gè)人換成了人類,但是人類之間是由不同的利益團(tuán)體構(gòu)成的,如果兩個(gè)集團(tuán)發(fā)生武裝沖突,其結(jié)果必定是任何一方都認(rèn)為自己是正義的、對(duì)方是邪惡的,雙方都研發(fā)自己的機(jī)器人并將其投入戰(zhàn)爭(zhēng),然后開(kāi)始做著傷害人類的事情。 如果機(jī)器人有意識(shí),會(huì)忍受“三定律”嗎? 從三定律來(lái)看,如果機(jī)器人沒(méi)有自我意識(shí),三定律就不存在、自我解體了。如果機(jī)器人可以有自我意識(shí),機(jī)器人還能忍受三定律嗎?更何況,你要怎么阻止一個(gè)智力超群的機(jī)器人自己把定律改掉呢? 當(dāng)機(jī)器人有了自我意識(shí),的確讓人感到恐懼。如科幻電影《復(fù)仇者聯(lián)盟2》中,一個(gè)由擁有自我意識(shí)的高度智能機(jī)器人帶來(lái)的“奧創(chuàng)時(shí)代”令超級(jí)英雄們繃緊了神經(jīng)。部分人堅(jiān)信會(huì)像電影里一樣,一旦有一天機(jī)器人“開(kāi)始思考”,很可能會(huì)淘汰它們認(rèn)為已經(jīng)落后的人類。 那么,位于科技前沿的領(lǐng)袖們對(duì)“機(jī)器人是否毀滅人類”怎么看?從他們的言論中我們或許能知曉一二。 著名物理學(xué)家霍金從進(jìn)化的角度解釋稱,機(jī)器人技術(shù)的發(fā)展速度要遠(yuǎn)超人類進(jìn)化速度,機(jī)器人將加速重新設(shè)計(jì)自己,繼而脫離甚至取代人類,因此“成功制造出人工智能機(jī)器人將可能成為我們歷史上最后一個(gè)里程碑”。 現(xiàn)實(shí)版“鋼鐵俠”、特斯拉CEO埃隆·馬斯克多次提出“機(jī)器人威脅論”,他認(rèn)為人工智能可能比核彈還危險(xiǎn)。2015年年底他還預(yù)言,“機(jī)器人屠殺人類”將在5~10年內(nèi)來(lái)臨。 盡管馬斯克的大膽言論遭到不少反對(duì),不過(guò)他還是得到了比爾·蓋茨的響應(yīng)。比爾·蓋茨承認(rèn)在剛開(kāi)始時(shí),人工智能機(jī)器會(huì)為我們做很多工作,但幾十年后其成為超級(jí)智能后,會(huì)強(qiáng)大到讓人類不得不關(guān)注,也就是說(shuō)人類應(yīng)當(dāng)敬畏人工智能的崛起。 除了馬斯克、蓋茨,今年3月,蘋(píng)果公司聯(lián)合創(chuàng)始人史蒂夫·沃茲尼亞克在接受采訪時(shí)表示,比人類思維速度更快的機(jī)器人能用更高效的方式管理公司,人類有淪為機(jī)器人“家庭寵物”的危險(xiǎn),他預(yù)言那一天可能發(fā)生在30年后。機(jī)器人三定律建立的基礎(chǔ)就有著本質(zhì)的錯(cuò)誤,三定律把人想象成了奴隸主,而把機(jī)器人當(dāng)成了聽(tīng)話的奴隸。這種基于有缺陷的倫理框架本身就有著內(nèi)在的對(duì)抗性,所以才不被研究者接受。我們之所以歧視機(jī)器人是因?yàn)闄C(jī)器人是由機(jī)器發(fā)展而來(lái)的,它的軀體是硅做的,不是血肉之軀,所以它們就必須遵從人類的需求,不管它們有多么強(qiáng)大的能力也沒(méi)用。雖然有不少專家公開(kāi)表達(dá)對(duì)人工智能機(jī)器人的擔(dān)憂,但人工智能技術(shù)還是在一片爭(zhēng)議聲中快速地發(fā)展。 相關(guān)鏈接: 不服從命令的機(jī)器人已經(jīng)出現(xiàn) 為了引發(fā)人類對(duì)人工智能的深層討論,美國(guó)加州伯克利大學(xué)機(jī)器人專家里本發(fā)明出能自己決定是否“故意傷人”的機(jī)器人,顛覆以往機(jī)器人展示的可愛(ài)助人一面。里本根據(jù)阿西莫夫的科幻小說(shuō),將此機(jī)器人命名為“第一法則”。在故事中,人類給機(jī)器人專門(mén)制定了法則,其中第一條就是“機(jī)器人不能傷害人類,或者在人類遭遇傷害時(shí)不作為”。里本說(shuō),這個(gè)造價(jià)不超過(guò)200美元的機(jī)器人,能夠按照程序自己“決定”是否要刺破一個(gè)人的手指。里本坦言,機(jī)器人會(huì)失控是人們最大的擔(dān)憂,而自己制造機(jī)器人的用意就是為了證明能決定傷害人類的機(jī)器人已經(jīng)存在,希望借此引發(fā)對(duì)人工智能的深層討論。 【責(zé)任編輯】蒲暉 龍學(xué)鋒 |
|
來(lái)自: 木子4kfvyzepq8 > 《百科知識(shí)薈萃》