摘 要 在機器人與人類關(guān)系越來越密切的時代背景中,建構(gòu)機器人的道德能力可以使機器人更好地與人類相處,并維護人類的基本利益。機器人道德能力的建構(gòu)與人類道德能力的培養(yǎng)存在一定的共同之處,但也有明顯的差異。從人與機器人互動的角度看,需要在考慮人與機器人道德地位不對稱性的基礎(chǔ)上,從機器人外觀、社會智能、人工情感等方面入手,建構(gòu)機器人的道德能力。 關(guān) 鍵 詞 機器人; 道德能力; 社會智能; 人工情感 1引言:機器人與道德能力 能力一般指能夠勝任某項任務(wù)的主觀條件和才能。道德能力是人認識各種道德現(xiàn)象,在面臨道德問題時能夠鑒別是非善惡,作出正確道德評價和道德選擇并付諸行動的能力。[1]道德能力由道德認知能力、道德判斷能力、道德行為能力與道德意志能力等成分構(gòu)成。[2]道德能力是現(xiàn)實社會中所有的正常人都具備的一種基本能力,這種能力主要是通過學(xué)習(xí)、教育、模仿等途徑逐漸發(fā)展起來的。毫無疑問,道德能力在人類的道德生活中發(fā)揮著重要作用。 對于機器人而言,當然可以通過機器學(xué)習(xí)的方式逐步發(fā)展出一定的道德能力。目前的機器學(xué)習(xí)是建立在海量數(shù)據(jù)的基礎(chǔ)之上的,阿爾法圍棋之所以能夠戰(zhàn)勝人類棋手,其重要原因之一就是從大量棋局中進行分析學(xué)習(xí)。但是,對人類的道德活動進行量化并建立龐大的數(shù)據(jù)庫并非易事,所以目前發(fā)展機器人的道德能力可能主要依賴于人類的建構(gòu)與機器人的道德實踐,而非機器人基于大數(shù)據(jù)的自主學(xué)習(xí)。 建構(gòu)機器人的道德能力的前提是從理論上厘清機器人道德能力的構(gòu)成及影響因素。從以上關(guān)于道德能力的界定可以看出,道德能力不是一種單一的能力,而是多種能力的集合。機器人的道德能力跟人類會有所區(qū)別,但也應(yīng)該與人類有某些重合之處。有學(xué)者認為,機器人的道德能力應(yīng)該包括以下五個方面:(1)道德詞匯;(2)規(guī)范系統(tǒng);(3)道德認知和情感;(4)道德抉擇與行動;(5)道德交流。而且,目前機器人倫理研究主要關(guān)注人們應(yīng)該如何設(shè)計、應(yīng)用和對待機器人等方面的倫理問題,機器道德(machine morality)則關(guān)注機器人應(yīng)該擁有哪些道德性能(moral capacities),以及這些性能如何實現(xiàn)的問題,這兩種取向目前基本上處于分離狀態(tài),而機器人道德能力的研究可以將兩者整合起來。[3] 建構(gòu)機器人道德能力的基本目的,一方面讓機器人擁有維護人類利益的能力,使之行善,而不會傷害人類;另一方面是使機器人能夠更好地與人類互動,讓人們能夠接受機器人。從根本上說,第一方面是服務(wù)于第二方面的。在機器人與人類關(guān)系越來越密切的時代背景中,有不少學(xué)者主張應(yīng)該讓機器人成為人工道德行為體。我們認為,讓機器人擁有一定程度的道德能力是它們能夠成為人工道德行為體的關(guān)鍵因素之一。當然,擁有道德能力的機器人并不能解決所有倫理問題,但道德能力顯然是機器人能夠解決倫理問題的前提條件。拙文《機器人倫理設(shè)計進路及其評價》[4]主要從設(shè)計者的角度初步討論了機器人道德能力的建構(gòu),本文主要從使用者、從人與機器人互動的角度出發(fā),探討機器人道德能力建構(gòu)的幾個核心因素,由此形成一個較為全面的關(guān)于機器人道德能力的結(jié)構(gòu)框架。 2人與機器人道德地位的不對稱性 眾所周知,機器人(robot)一詞的最初由來,即是取意于“奴隸、奴仆”?,F(xiàn)在,許多領(lǐng)域的機器人所做的仍然是人類認為是枯燥、危險的工作。隨著機器人智能水平的提高和應(yīng)用范圍的擴大,機器人與人類的關(guān)系越來越密切。人們一般傾向于認為,外觀跟人類接近、擁有較高智能的機器人,應(yīng)該擁有一定的道德權(quán)利,至少我們應(yīng)該尊重機器人,而不是把機器人當作純粹的工具。不過,如果機器人可以擁有道德能力的話,人類對機器人道德能力的預(yù)期與普通人可能會不大一樣。在道德能力方面,人類可能對機器人道德能力的期望較高,也就是說人類與機器人的道德地位是不對稱的。 這種不對稱性至少表現(xiàn)在兩個方面。第一,從人類應(yīng)該如何對待機器人的角度看,人們可能希望機器人對人類的行為更寬容。有學(xué)者設(shè)計了10個假想情景,讓58名大學(xué)生分為兩組分別對假想情景進行道德評價,在其中一組的情景中受害人不明確,可以假定是人類,而另一組的情景中受害人是機器人。研究結(jié)果發(fā)現(xiàn),對于同樣的違反道德的行為,當這些行為是針對人類而不是機器人時,該行為被認為是更不道德的。[5]當然,人們的哪些行為對機器人來說是可以接受的,而對人類自身來說是不可接受的,或者可以接受的程度,這些問題還需要具體分析。 第二,從機器人應(yīng)該如何對待人類的角度看,人們可能希望機器人道德水平更高,在道德活動中更為積極主動。已有經(jīng)驗研究表明,人們可能對人與機器人采用不同的道德規(guī)范。在道德困境中,人們傾向于期望機器人做出符合功利主義的選擇。在同樣道德的困境中,人們譴責(zé)機器人的不作為多于它的作為,但譴責(zé)人的作為多于不作為。如果機器人的道德抉擇沒有符合人們的期望,機器人需要對自己的抉擇做出相應(yīng)的解釋以獲取人類的信任,由此也需要機器人具備一定的道德交流能力。[6] 毫無疑問,科技工作者應(yīng)該根據(jù)人們對機器人的預(yù)期來建構(gòu)機器人的道德能力,這樣才能使機器人更好地被人們所接受,也可以使人們更信任機器人。事實上,從事機器人與人工智能倫理研究的學(xué)者,也普遍認為機器人的道德水平、道德標準應(yīng)該比人類更高。人與機器人在道德地位上的不對稱性也表明,人與機器人之間的互動研究可以參考人與人之間的互動規(guī)律,但并不能直接照搬,人與機器人之間的互動有其特殊性與復(fù)雜性。 盡管人們可以對機器人提出較高的要求,但是建構(gòu)機器人道德能力的目標并不是讓機器人成為人人滿意的完美道德模范。首先,機器人的道德能力是由人類設(shè)計建構(gòu)的,在建構(gòu)的過程中不可避免地會有設(shè)計者的一些主觀偏好融入其中,從而使機器人表現(xiàn)出設(shè)計者的某種“偏見”。另一方面,由于人類社會環(huán)境的復(fù)雜性,設(shè)計者不可能預(yù)見所有情況,機器人只能在有限的知識與信息的基礎(chǔ)上進行道德判斷與抉擇,由此也決定了機器人道德能力的非完美性。其次,由于不同的人出于各種原因會對同樣的道德行為做出不同的道德判斷,讓機器人成為完美的道德模范是不現(xiàn)實的。第三,即使表面上看來是完美的道德模范,在現(xiàn)實社會中可能并不是最理想的道德主體。任何人都會有一定程度的偏見,人類在與機器人的互動過程中,也會希望機器人與人一樣有某種類似的認知人格。事實上,與人類相似的認知偏見在人與機器人長時間的互動過程中發(fā)揮著重要作用。也就是說,與沒有偏見的機器人相比,人們更愿意與有某些偏見、非完美的機器人互動。[7] 可見,在考慮到人與機器人道德地位的不對稱性的前提下,我們應(yīng)該使機器人的道德判斷與行為盡可能符合人類的預(yù)期,同時使機器人的道德認知、道德行為跟人類有較多的一致性,包括有某種程度的偏見、偶爾會犯點無傷大雅的小錯誤,等等,或許這樣的機器人才更容易被人們所接受。 3機器人外觀與道德能力 機器人擁有合適的外表,讓人產(chǎn)生親近感,從而使人們更容易接受它們,是建構(gòu)機器人道德能力的基本前提。對機器人的外觀與人類對其的好感度(affinity)之間的關(guān)系,影響最大的理論可能是日本機器人專家森政弘(Masahiro Mori)提出的“恐怖谷(Uncanny Valley)理論”。該理論表明,機器人的外觀和行為跟人類越是接近,人們越容易產(chǎn)生積極的正面情感;但是,這種正面的情感到達一個峰值之后,隨著相似度的提高,人們會對機器人產(chǎn)生恐怖的感覺,形成所謂的“恐怖谷”;當相似度持續(xù)上升到與人類更為接近的程度時,人們對機器人又會重新產(chǎn)生正面的情感。[8]“恐怖谷理論”雖然主要是針對人型機器人的,但對于非人型機器人同樣具有一定程度的適用性。 受恐怖谷理論的啟發(fā)與激勵,許多學(xué)者對人們關(guān)于不同外觀機器人的接受與喜愛程度進行了比較研究,因為機器人的應(yīng)用范圍非常廣泛,不同應(yīng)用領(lǐng)域的機器人的能力與外觀差異巨大。從外觀上看,機器人主要可以分為機器型機器人、動物型機器人、人型機器人等三大類別。對于主要使用對象是少年兒童的機器人,機器型、動物型機器人可能更容易被接受。有學(xué)者讓159名兒童對40張機器人圖片進行評價,結(jié)果表明,兒童對機器人外觀的分類,與成年研究人員的分類基本一致;而且,兒童把人型機器人看作是攻擊性的和專橫的,而把動物型機器人看作是更友好的和靦腆的。[9]與此類似,有學(xué)者對有輕微認知障礙的老人關(guān)于機器人外觀的態(tài)度進行了研究,發(fā)現(xiàn)老人更喜歡小型的、某些特征介于人/動物和機器之間的機器人。不過,盡管參與者不太樂意面對類人機器人,但他們確實對某些擁有人類特點的、新穎的小機器人表現(xiàn)出積極的態(tài)度。[10]青年或中年人可能更傾向于喜歡人型機器人。通過對79名大學(xué)生對不同外觀機器人的態(tài)度研究表明,大多數(shù)人喜歡人型機器人,只有少數(shù)人偏愛機器型機器人。而且,不同類型的機器人外觀也影響人們對機器人性格的認知。[11]另外,性別、種族、職業(yè)、文化程度等多種因素都會影響人們對機器人外觀的態(tài)度,我們還需要更多深入細致的對比研究。 同時,機器人的外觀并不是一個獨立的因素,我們需要把機器人的外觀與功能、工作環(huán)境等多種因素結(jié)合起來研究。機器人的外觀、舉止會深刻影響人們對機器人的認知,以及是否服從機器人指令的意愿。另外,人們通常希望機器人的外觀和行為與其工作內(nèi)容與環(huán)境協(xié)調(diào)一致。通過對127名來自不同年齡階段、不同文化程度的調(diào)查對象的研究表明,人們希望在家里使用的機器人外觀像動物,而在公共場所使用的機器人外觀更像人。同時,機器人的功能與外觀的關(guān)系也非常緊密,比如,雖然人們更喜歡動物型的家用機器人,但如果家用機器人的功能是私人助手的話,人們還是傾向于選擇人型機器人。[12] 因此,我們需要針對不同的使用對象、不同的機器人功能定位與應(yīng)用環(huán)境,設(shè)計多樣化的機器人外觀。對于在公共場所使用的機器人,比如在博物館、旅游景點的導(dǎo)游機器人,它需要面對各種不同的使用對象,這樣的機器人的外觀也應(yīng)該盡可能地多樣化。而且,要合理設(shè)計機器人與人類的相似程度,從而避免出現(xiàn)“恐怖谷”現(xiàn)象。 4社會智能與道德能力 社會性是人類的基本屬性,而且社會性在人類智能的發(fā)展中起著至關(guān)重要的作用。早在20世紀60年代就有學(xué)者研究發(fā)現(xiàn),社會生活是靈長類動物智能產(chǎn)生的前提,并決定其智能的特點。也就是說,靈長類動物的社會生活為其提供了智能進化的環(huán)境。[13]我們可以把智能分為低級和高級兩類,對過去曾經(jīng)發(fā)生過的事情的模仿只需要低級智能,而只有在事件之間建立新的聯(lián)系才可能發(fā)生的行為,則需要高級智能。靈長類動物擁有的高級智能是適應(yīng)社會生活的復(fù)雜性而不斷進化的結(jié)果。而且,起初是為了適應(yīng)解決社會問題而發(fā)展起來的思維模式,又進一步豐富了人類和其他靈長類動物的行為。[14]這就是“社會智能假說(Social Intelligence Hypothesis,SIH)”。 不同學(xué)科對社會智能的界定有一定差別。從系統(tǒng)科學(xué)的角度看,人最重要的和最多的智能是在由眾多個體構(gòu)成的社會中進行各種活動時體現(xiàn)出來的,“協(xié)作”、“競爭”等等是人類智能行為的主要表現(xiàn)形式,這種社會智能也是人的社會思維涌現(xiàn)出來的群體智慧。[15]這是從社會群體的角度看待社會智能。與系統(tǒng)科學(xué)的角度相反,心理學(xué)主要從社會個體的角度研究社會智能。從心理學(xué)的角度看,社會智能一般指一種正確認識自我與他人、與人和諧相處的能力,包括言語、情感表達、社會行為調(diào)整、社會角色扮演等多種社會參與技能。[16] 可見,無論是從智能的起源、進化,還是從社會群體、個體的現(xiàn)實需要角度來看,社會智能的重要性都是不言而喻的。如果SIH是靈長類動物智能進化的一種重要因素,那么它也可能是智能人工物進化的基本原理,而不僅限于生物體。因此,我們應(yīng)該在個體化的環(huán)境中研究機器人之間“一對一”的互動,機器人應(yīng)該從個體互動中獲得經(jīng)驗,彼此認識,從而建立個體間的“個人”關(guān)系。[17]倫理道德的根本目的是協(xié)調(diào)與處理人際關(guān)系,所有的道德實踐毫無疑問也都是在社會環(huán)境中進行的。人類的道德能力培養(yǎng),是在家庭、學(xué)校和社會中,通過教育、模仿、實踐與思考等多種途徑發(fā)展起來的。對人類來說,倫理道德的社會性是不言而喻的。從社會智能理論與人類倫理的社會性來看,通過讓人類與機器人,以及機器人之間進行互動,使機器人通過模仿人類的道德能力培養(yǎng)的模式來發(fā)展機器人的道德能力應(yīng)該是一種基本途徑。 從發(fā)展機器人的社會智能的角度建構(gòu)機器人的道德能力,其必要性還具體表現(xiàn)在以下幾個方面。首先,這是由人類道德的本質(zhì)特征決定的。亞里士多德認為,適度是德性的特點,它以選取中間為目的?!暗滦允且环N選擇的品質(zhì),存在于相對于我們的適度之中?!盵18]也就是說,盡管人類擁有道德本能,但道德能力也是通過具體、反復(fù)的道德實踐活動獲得的。因此,通過具體的實踐讓機器人正確理解“適度”,也是建構(gòu)其道德能力的必要手段。 第二,這是由人類道德生活的復(fù)雜性決定的。比如,盡管人們一般認為存在一些普遍性的道德原則,但是如何在具體的社會環(huán)境中進行應(yīng)用,需要進行反復(fù)的道德實踐;另一方面,道德原則總會有遇到例外的情況,原則與例外的嚴重沖突可能導(dǎo)致的所謂“道德困境”也一直是倫理學(xué)研究的熱門話題,而道德困境的處理只能具體問題具體分析。 第三,通過社會智能的角度發(fā)展機器人的道德能力,也符合人工智能發(fā)展的基本趨勢。目前,人工智能在規(guī)則比較明確的領(lǐng)域取得了巨大的成功,阿爾法圍棋的強大能力就是有力的證明。但是,機器人在現(xiàn)實的社會生活環(huán)境中的靈巧性、適應(yīng)性,跟人類相比還有很大的差距。要提高機器人的社會適應(yīng)能力,機器人技術(shù)本身的發(fā)展進步固然是基礎(chǔ)性的,但讓機器人擁有更多的常識與社會智能也是至關(guān)重要的。讓機器人在現(xiàn)實社會中學(xué)習(xí)掌握更多的關(guān)于倫理道德的常識與技能,是建構(gòu)道德能力的關(guān)鍵因素。 第四,與從認知科學(xué)的角度發(fā)展機器人的道德能力的一致性。機器人倫理設(shè)計的認知科學(xué)進路主要是讓機器人通過模仿現(xiàn)實社會生活中人類的道德認知,來建構(gòu)機器人的道德能力。機器人模仿人類的道德認知,其核心內(nèi)容就是根據(jù)社會智能的產(chǎn)生、發(fā)展及表現(xiàn)等方面的規(guī)律,使機器人在一定程度上模擬人類的社會智能。 5人工情感與道德能力 人與人之間的情感是人類精神生活的重要組成部分,也是無可替代的。有學(xué)者認為,智能的人造物可以取代人的思維能力,尚不能取代人的情感。人的情感不應(yīng)當由人造物來取代,不應(yīng)當有“情物”。[19]不過,人類很容易對非人的物品和動物產(chǎn)生情感,有時這種情感的強烈程度并不亞于人與人之間的情感。不少研究表明,老人、兒童在與機器人互動的過程中會感到愉快、舒適,機器人在一定程度上確實可以滿足他們的情感需要。 從建構(gòu)機器人的道德能力的角度看,賦予機器人一定的情感能力,是由道德與情感的密切關(guān)系決定的。一方面,情感影響人類的道德判斷、道德行為。從倫理學(xué)的角度看,今天的社會倫理主要是一種以理性規(guī)則、道德義務(wù)為中心的倫理,但是,我們也要看到同情、憐憫和惻隱之心在人類道德生活中的基礎(chǔ)性作用。[20]斯賓諾莎(Baruch de Spinoza)說:“善與惡的知識不是別的,只是我們所意識到的快樂與痛苦的情感。”[21]從認知科學(xué)的角度看,理智與情感不是兩個獨立的過程,情感在人類推理的過程中發(fā)揮著重要作用。[22]從心理學(xué)的角度看,目前的道德情緒研究充分證實了情感在道德行為中的重要作用。[23]另一方面,人類的道德判斷通常以情感、行為等方式反映出來,比如人們對好壞善惡的不同反應(yīng),與人們的喜愛、厭惡等情感存在密切的聯(lián)系,具體表現(xiàn)在人的心理狀態(tài)、面部表情與外在舉止等方面。 如果機器人能夠識別情感,并表現(xiàn)出跟人類類似的豐富情感,可能更容易被人們所接受,這也是人工情感研究的基本目標。人工情感是利用信息科學(xué)的手段對人類情感過程進行模擬、識別和理解,使機器能夠產(chǎn)生類人情感并與人類自然和諧地進行人機交互的研究領(lǐng)域。人工情感并不是簡單地模擬人的某些情感表達方式和情感識別方式,而是為了使機器人具有像人一樣的內(nèi)在情感,真實地具有像人一樣的情感表達能力、情感識別能力、情感思維能力和情感實施能力。[24] 目前關(guān)于人工情感的研究大多是基于行為主義的思想,也就是讓機器人表現(xiàn)出某種行為,使人們認為機器人擁有某種情感。正如情感計算的提出者皮卡德(Rosalind Picard)所說的那樣:“如何識別一個人的情感狀態(tài)呢?根據(jù)他們的臉、他們的聲音、他們的步伐或其他能傳達他們感覺的姿態(tài)和行為舉止?!盵25]由于這種表現(xiàn)只是機器人的外在特性,與機器人的內(nèi)在狀態(tài)無關(guān),所以有的學(xué)者認為這是虛假的情感,甚至是一種欺騙,是不道德的。不過,人類對情感的識別主要是基于他人的外在神態(tài)與行為,我們無法讀取他人的內(nèi)心狀態(tài)。從另一個角度看,人們?yōu)榱撕侠淼卣f明某個實體(entity)在給定社會環(huán)境中的行為,通常會在觀察的基礎(chǔ)上賦予它認知或情感的狀態(tài)。[26] 里夫(Byron Reeves)與納斯(Clifford Nass)甚至認為,人們像對待真實的人那樣對待電腦、電視與新媒體,即“媒體等同于真實生活”。通常關(guān)于媒體的研究總是關(guān)注于人們經(jīng)驗到的信息什么是真的,什么是假的。比如,計算機是否真的擁有智能?電視可以真正擁有一種社會角色嗎?然而,諸如此類的問題卻忽略了一個重要的事實,即那些像是真的東西通常比確實為真的東西更具影響力。[27]也就是說,與其關(guān)注機器人是否擁有表現(xiàn)外在情感的內(nèi)部狀態(tài),還不如關(guān)注人類對機器人情感的認知。 當然,隨著神經(jīng)科學(xué)、認知科學(xué)研究的深入,我們可以在對人類情感的內(nèi)在機制全面認識的基礎(chǔ)上,開發(fā)出跟人類類似的、具有與情感相關(guān)的內(nèi)在狀態(tài)的機器人。有學(xué)者認為,把沒有意識體驗的行為看作情感是一種沒有感覺(feeling)的情感,它無法區(qū)分行為的哪些方面是情感,哪些不是,而且也無法使我們建立一種情感的意識體驗理論。感覺是人類情感的意識體驗的一個重要方面,我們應(yīng)該以建立一種擁有感覺能力的系統(tǒng)為起點,建構(gòu)可以表現(xiàn)復(fù)雜情感的能力,以及表現(xiàn)靈活的、價值驅(qū)動的社會行為的能力。[28] 我們可以把基于行為主義的人工情感稱為“初極人工情感”,即使這種情感只是模仿人類情感的外在表象,也是非常有意義的,事實上這正是許多科學(xué)家正在進行的研究內(nèi)容。擁有內(nèi)在狀態(tài)、與人類產(chǎn)生情感機制類似的人工情感,可以稱之為“高級人工情感”。初級人工情感通過人類情感的外在行為表現(xiàn)來模擬和識別情感,而高級人工情感研究方向恰好相反,是由機器人內(nèi)部狀態(tài)產(chǎn)生情感,由情感來引發(fā)各種外在行為。事實上這兩種研究方向都是必要的,亦不矛盾,兩者的研究成果可以相互借鑒。 為了更好地建構(gòu)機器人的道德能力,我們需要深入研究情感與道德判斷之間的具體機制。此外,我們還需要對人與機器人之間的情感互動進行評價。研究表明,采用人與人之間的情感評價模型來對人與機器人之間的情感進行評價可能是不夠的。[29] 6結(jié)語 綜上可見,建構(gòu)機器人的道德能力,需要從人與機器人道德地位的不對稱性、社會智能、人工情感、機器人外觀等方面出發(fā),建構(gòu)機器人的道德判斷、道德行為、道德評價以及道德交流等能力,其相互關(guān)系如圖1所示。關(guān)于倫理規(guī)范的選擇及其實現(xiàn)、道德詞匯的表征、道德認知、道德評價等問題,拙作《機器人倫理設(shè)計進路及其評價》與《機器倫理芻議》[30]已有粗淺論述,限于篇幅,此處不再贅述。另外,本文的研究亦表明,哲學(xué)家在機器人道德能力建構(gòu)中應(yīng)當發(fā)揮重要作用。當然,要真正使機器人擁有一定的道德能力,我們還需要更多深入細致的經(jīng)驗研究。 圖1 機器人道德能力框架示意圖 參考文獻: [1]蔡志良、蔡應(yīng)妹.道德能力論[M].北京:中國社會科學(xué)出版社,2008. [2]羅國杰.中國倫理學(xué)百科全書(倫理學(xué)原理卷)[M].長春:吉林人民出版社,1993. [3]Malle,B.Integrating Robot Ethics and Machine Morality:the Study and Design of Moral Competence in Robots[J].Ethics and Informa-tion Technology,2016,18(4):243-256. [4]杜嚴勇.機器人倫理設(shè)計進路及其評價[J].哲學(xué)動態(tài),2017(9):84—91.[5]Lee,S.&Lau,I.Hitting a Robot vs.Hitting a Human:Is it the Same?[C]//HRI’11Proceedings of the 6th international conference on Human-robot interaction.Lausanne,2011:187-188. [6]Malle,B.et al.Sacrifice One for the Good of Many?People Apply Different Moral Norms to Human and Robot Agents[C]//HRI’15 IEEE International Conference on Human-Robot Interaction.Port-land,2015:117-124. [7]Biswas,M.&Murray,J.The Effects of Cognitive Biases and Im-perfectness in Long-term Robot-human Interactions[J].Cognitive Systems Research,2017,43:266-290. [8]Mori,M.The Uncanny Valley[J].IEEE Robotics&Automation Magazine,2012,19(2):98-100. [9]Woods,S.Exploring the Design Space of Robots:Children’s Per-spectives[J].Interaction with Computers,2006,18(6):1390-1418. [10]Wu,Y.et al.Designing Robots for the Elderly:Appearance Issue and Beyond[J].Archives of Gerontology and Geriatrics,2012,54(1):121-126. [11]Walters,M.et al.Avoiding the Uncanny Valley[J].Autonomous Robots,2008,24(2):159-178. [12]Lohse,M.etal.Domestic Applications for Social Robots[J].Journal of Physical Agent,2008,2(2):2132 [13]Jolly,A.LemurSocialBehaviorandPrimateIntelligence[J].Science,1966,153(3735):501-506. [14]Humphrey,N.The Social Function of Intellect[C]//Bateson,P.&Hinde,R.(eds.).Growing Points in Ethology.Cambridge:Cambridge University Press,1976:303-317. [15]載汝為.社會智能科學(xué)[M].上海:上海交通大學(xué)出版社,2007. [16]劉在花,許燕.社會智力評估述評[J].上海教育科研,2003(11):33-37.[17]Dautenhahn,K.Trying to Imitate—a Step towards Releasing Ro-bots from Social Isolation[C]//Gaussier,P.&Nicoud,J.(eds.).From Perception to Action Conference.Los Alamitos:IEEE Computer Society Press,1994:290-301. [18]亞里士多德.尼各馬可倫理學(xué)[M].廖申白,譯.北京:商務(wù)印書館,2015. [19]林德宏.人與機器[M].南京:江蘇教育出版社,1999. [20]何懷宏.倫理學(xué)是什么[M].北京:北京大學(xué)出版社,2015. [21]斯賓諾莎.倫理學(xué)[M].賀麟,譯.北京:商務(wù)印書館,2013. [22]費多益.認知視野中的情感依賴與理性、推理[J].中國社會科學(xué),2012(8):31-47. [23]王云強.情感主義倫理學(xué)的心理學(xué)印證[J].南京師大學(xué)報(社科版),2016(6):128-135. [24]魏斌,等.人工情感原理及其應(yīng)用[M].武漢:華中科技大學(xué)出版社,2017. [25]皮卡德.情感計算[M].羅森林,譯.北京:北京理工大學(xué)出版社,2005.[26]Duffy,B.Anthropomorphism and the Social Robot[J].Roboticsand Autonomous Systems,2003,42(3-4):177-190. [27]Reeves,B.&Nass,C.The Media Equation[M].Cambridge:Cambridge University,1996. [28]Adolphs,R.Could a Robot Have Emotions?[C]//Fellous,J.&Arbib,M.(eds.).Who Needs Emotions?The Brain Meets the Robot.Oxford:Oxford University Press,2005:9-25.[29]Samani,H.The Evaluation of Affection in Human-Robot Interac-tion[J].Kybernetes,2016,45(8):1257-1272. [30]杜嚴勇.機器倫理芻議[J].科學(xué)技術(shù)哲學(xué)研究,2016(1):96-101. 編輯︱李佳效 視覺︱歐陽言多 |
|