自2022年,特斯拉發(fā)布人形機(jī)器人擎天柱以來(lái),人形機(jī)器人產(chǎn)業(yè)迅速成為熱門競(jìng)爭(zhēng)領(lǐng)域。在我國(guó),人形機(jī)器人開發(fā)已成為國(guó)家新質(zhì)生產(chǎn)力發(fā)展的重要舉措,運(yùn)動(dòng)控制、環(huán)境感知、人機(jī)交互等人形機(jī)器人核心技術(shù)迭代加速。工信部于2023年印發(fā)《人形機(jī)器人創(chuàng)新發(fā)展指導(dǎo)意見(jiàn)》,提出到2025年初步建立人形機(jī)器人創(chuàng)新體系,實(shí)現(xiàn)人形機(jī)器人量產(chǎn);到2027年形成安全可靠的人形機(jī)器人產(chǎn)業(yè)鏈、供應(yīng)鏈體系??梢灶A(yù)見(jiàn),人工智能發(fā)展正在向高級(jí)形態(tài)躍進(jìn),“具身智能”時(shí)代即將到來(lái)。然而,人形機(jī)器人的普及與應(yīng)用,也有可能沖擊已有的社會(huì)交往安全與秩序,產(chǎn)生新的權(quán)益侵害風(fēng)險(xiǎn)。作為人形機(jī)器人的直接管控者,使用者是風(fēng)險(xiǎn)分配中的關(guān)鍵角色之一,是否以及如何為使用者設(shè)定侵權(quán)責(zé)任,尤其是是否以及如何為其設(shè)置注意義務(wù),將對(duì)人形機(jī)器人的使用秩序與風(fēng)險(xiǎn)分配格局產(chǎn)生形塑作用,為此,有必要就人形機(jī)器人使用者注意義務(wù)展開研究。 一、問(wèn)題的提出 人形機(jī)器人是具有類人外形結(jié)構(gòu)特征、運(yùn)動(dòng)控制能力、綜合感知能力的智能通用機(jī)器人。相比傳統(tǒng)機(jī)器人而言,人形機(jī)器人由通用大模型賦能,具備語(yǔ)義理解、多模態(tài)感知、自主決策能力,其以盡可能復(fù)刻人類外形和行為,實(shí)現(xiàn)應(yīng)用場(chǎng)景從專業(yè)向通用的升級(jí)為發(fā)展目標(biāo)。從仿照動(dòng)物再到仿照人類自身,人形機(jī)器人具備復(fù)刻甚至突破個(gè)人部分自然能力的潛能,未來(lái)可替代人類完成重復(fù)性、高危性和勞動(dòng)密集型工作,走進(jìn)制造、醫(yī)療、教育、陪護(hù)等廣泛行業(yè),極大提高經(jīng)濟(jì)效率和社會(huì)整體福利水平。 人工智能技術(shù)迭代升級(jí)引發(fā)社會(huì)變革的同時(shí),也會(huì)引發(fā)結(jié)構(gòu)性失業(yè)、社會(huì)關(guān)系異化、數(shù)字鴻溝等新的問(wèn)題。具體到私法的治理視角,人形機(jī)器人等強(qiáng)人工智能引發(fā)的侵權(quán)風(fēng)險(xiǎn)無(wú)疑將是未來(lái)的重要課題。一種妥當(dāng)?shù)娘L(fēng)險(xiǎn)分配思路是,為人工智能提供者、智能設(shè)備制造者等施加更重的侵權(quán)責(zé)任,這也是既有研究在人工智能致害責(zé)任認(rèn)定規(guī)則設(shè)計(jì)中呈現(xiàn)出的基本共識(shí)。相比之下,另一條風(fēng)險(xiǎn)分配路徑——完善人工智能使用者注意義務(wù)規(guī)則,明確使用者侵權(quán)責(zé)任認(rèn)定,則受關(guān)注不多,有待深入分析。本文所述使用者,是使用人形機(jī)器人從事特定社會(huì)活動(dòng)的終端用戶。相比人形機(jī)器人制造者和人工智能提供者而言,使用者是人形機(jī)器人的直接支配者,當(dāng)使用者使用人形機(jī)器人造成他人損害時(shí),使用者是否應(yīng)負(fù)注意義務(wù)以及應(yīng)負(fù)何種注意義務(wù),直接關(guān)系到使用者侵權(quán)責(zé)任的成立與否、受害人損害如何救濟(jì)等問(wèn)題。因此,明確使用者的注意義務(wù),是未來(lái)人形機(jī)器人致害責(zé)任認(rèn)定必須解決的問(wèn)題。 學(xué)界針對(duì)智能機(jī)器人致害責(zé)任議題已有一定討論。不少學(xué)者指出,智能機(jī)器人的高度智能化特征,對(duì)使用者過(guò)錯(cuò)責(zé)任、產(chǎn)品責(zé)任規(guī)則適用提出挑戰(zhàn)。使用者責(zé)任方面,可能面臨使用者過(guò)錯(cuò)認(rèn)定規(guī)則不明、對(duì)使用者過(guò)于嚴(yán)苛等問(wèn)題;產(chǎn)品責(zé)任方面,則面臨產(chǎn)品缺陷認(rèn)定困難、因果關(guān)系不明等問(wèn)題。為此,應(yīng)對(duì)建議主要包括,確立智能機(jī)器人主體地位以使其參與責(zé)任分配,進(jìn)一步強(qiáng)化人工智能設(shè)備制造者、人工智能設(shè)計(jì)開發(fā)者責(zé)任,完善相關(guān)保險(xiǎn)制度和賠償基金制度等。相較之下,如何回應(yīng)使用者過(guò)錯(cuò)責(zé)任適用的難題,從注意義務(wù)角度出發(fā)重構(gòu)使用者過(guò)錯(cuò)責(zé)任的正當(dāng)性及其認(rèn)定規(guī)則,則尚無(wú)專門探討。 再?gòu)氖褂谜咦⒁饬x務(wù)視角切入。學(xué)界就某些特定類型的人工智能使用者之注意義務(wù)有一定探討。如自動(dòng)駕駛汽車發(fā)生事故致害時(shí),駕駛者的接管義務(wù)研究;診療機(jī)器人致害時(shí),醫(yī)療機(jī)構(gòu)的合理診療義務(wù)。上述研究主要關(guān)注特定領(lǐng)域使用者的特殊注意義務(wù)(主要是作為義務(wù))。然而,與已應(yīng)用的人工智能不同的是,人形機(jī)器人具有通用于全場(chǎng)景的發(fā)展?jié)撃?,其將在廣泛范圍內(nèi)引發(fā)社會(huì)交往關(guān)系的變革。因此,構(gòu)建人形機(jī)器人使用者注意義務(wù)還需跳出特定場(chǎng)景、特定的利益博弈關(guān)系,探尋一般性規(guī)則。本文即以此為研究目標(biāo),試圖探討使用者使用人形機(jī)器人時(shí)應(yīng)當(dāng)承擔(dān)何種注意義務(wù),并從人形機(jī)器人使用者注意義務(wù)的正當(dāng)性、注意義務(wù)內(nèi)容和成立要件三個(gè)方面搭建使用者注意義務(wù)規(guī)則體系的一般框架,以期充實(shí)人工智能致害風(fēng)險(xiǎn)分配的侵權(quán)法工具。 為避免混淆,還需就本文所討論的侵權(quán)情形作出如下限定。本文有關(guān)人形機(jī)器人使用者注意義務(wù)之論述,皆是以使用者指令人形機(jī)器人進(jìn)行活動(dòng),致使他人權(quán)益遭受侵害為具體語(yǔ)境。其中,行為人是人形機(jī)器人的使用者,其可直接支配人形機(jī)器人實(shí)施某種目的性活動(dòng),受害人則是在人形機(jī)器人依指令執(zhí)行任務(wù)過(guò)程中遭受損害的主體。對(duì)于與使用行為無(wú)關(guān)的損害,如純粹由人形機(jī)器人質(zhì)量、系統(tǒng)缺陷引發(fā)的損害,則不在本文討論范疇。 二、人形機(jī)器人使用者注意義務(wù)的正當(dāng)性證成 使用者對(duì)人形機(jī)器人的管控,存在支配直接性和有限性的悖論。申言之,使用者是人形機(jī)器人的直接占有者,可指令人形機(jī)器人活動(dòng),是使用危險(xiǎn)的直接開啟者和受益者,并對(duì)該危險(xiǎn)具有一定管控力。然而,相比于普通工具而言,使用者對(duì)人形機(jī)器人的控制力又具有突出的有限性。一方面,人形機(jī)器人及其智能系統(tǒng)運(yùn)行涉及諸多復(fù)雜的技術(shù)機(jī)理,并存在難以解釋的技術(shù)黑箱,使用者無(wú)法實(shí)現(xiàn)對(duì)人形機(jī)器人的完全管控;另一方面,在有限的控制范圍內(nèi),使用者對(duì)人形機(jī)器人的支配仍然有賴于人形機(jī)器人制造者、人工智能提供者提供必要的輔助?;谶@種支配直接性和有限性之間的矛盾,使用者負(fù)擔(dān)注意義務(wù)的正當(dāng)性基礎(chǔ)受到挑戰(zhàn),有必要予以闡明。 人形機(jī)器人等具身智能的使用,將會(huì)把人類帶入新的生活方式和交往機(jī)制中。在這一過(guò)程中,社會(huì)交往亦將面臨新的風(fēng)險(xiǎn)和挑戰(zhàn)。為此,通過(guò)設(shè)置使用者注意義務(wù),可以規(guī)范人形機(jī)器人使用行為,維護(hù)智能社會(huì)的交往安全。 人類社會(huì)交往的形式及效率,極大程度上取決于生產(chǎn)技術(shù)水平。技術(shù)變革可以塑造新的社會(huì)交往工具和手段,使人類克服時(shí)間、空間、語(yǔ)言、文化、自然環(huán)境等限制,進(jìn)而形成社會(huì)交往關(guān)系新形態(tài)。人形機(jī)器人的應(yīng)用,將促成人類交往能力的又一次飛升。一方面,由通用大模型賦能的人形機(jī)器人,具有遠(yuǎn)遠(yuǎn)超出人的信息收集和處理能力、數(shù)據(jù)分析能力、創(chuàng)作能力,可幫助使用者突破腦力的限制。另一方面,人形機(jī)器人是具有類人化身體結(jié)構(gòu)的高級(jí)智能機(jī)器,其有能力根據(jù)使用者的指令,廣泛開展社會(huì)交往活動(dòng),如開車、購(gòu)物、陪護(hù)、教育等。這種類似使用者“分身”的高級(jí)智能體,使人類活動(dòng)可突破空間、體力甚至主體存在的限制。交往能力的解放,將重塑社會(huì)交往關(guān)系。于個(gè)體而言,人形機(jī)器人可增加個(gè)人的社會(huì)交往場(chǎng)域,豐富社會(huì)交往活動(dòng)。于社會(huì)而言,人形機(jī)器人以擬人的形式嵌入社會(huì)交往,成為社交網(wǎng)絡(luò)中新的節(jié)點(diǎn),使社會(huì)緊密連接于虛實(shí)交互、多層次、多領(lǐng)域的普遍交往關(guān)系網(wǎng)中。這有助于人類更有效地追求物質(zhì)利益和精神利益,但同樣也會(huì)產(chǎn)生新的社會(huì)交往風(fēng)險(xiǎn)。 可以預(yù)見(jiàn)的風(fēng)險(xiǎn)涉及以下方面。首先,使用者使用人形機(jī)器人實(shí)施侵權(quán)行為的風(fēng)險(xiǎn)增加。強(qiáng)人工智能既可以是增加個(gè)人福利的積極助手,也可以是實(shí)施侵權(quán)行為的邪惡工具。從目前人工智能應(yīng)用失范的實(shí)踐來(lái)看,未來(lái)亦會(huì)產(chǎn)生使用者濫用人形機(jī)器人實(shí)施侵權(quán)行為的風(fēng)險(xiǎn),且相比傳統(tǒng)機(jī)器人,人形機(jī)器人濫用風(fēng)險(xiǎn)有進(jìn)一步增加之可能,主要原因有兩個(gè)方面:一方面,人形機(jī)器人具有類人外形,可直接在適于人類活動(dòng)的環(huán)境中運(yùn)行,無(wú)需另外為其搭建專門的工作環(huán)境,由此,具有“人形”的機(jī)器人相比非類人的機(jī)器人而言,普及成本更低、應(yīng)用場(chǎng)景更廣。另一方面,人形機(jī)器人具有類人的視覺(jué)、聽覺(jué)能力和思維方式,同時(shí)具有超出人類個(gè)體的數(shù)據(jù)處理、分析和決策能力,使用者可直接通過(guò)自然語(yǔ)言指令機(jī)器人,并借助其完成僅憑個(gè)人體力、腦力難以實(shí)現(xiàn)之目標(biāo)活動(dòng)。因此,人形機(jī)器人可更廣泛、更深入地服務(wù)于人的社會(huì)活動(dòng),而于消極層面,這客觀上將增加人形機(jī)器人濫用風(fēng)險(xiǎn)。其次,相比無(wú)人形機(jī)器人輔助的一般主體而言,使用者很可能借助人形機(jī)器人的數(shù)據(jù)分析與決策能力,在現(xiàn)實(shí)交往中取得對(duì)一般主體的支配地位,從而產(chǎn)生歧視、操控等風(fēng)險(xiǎn)。除濫用風(fēng)險(xiǎn)外,人形機(jī)器人亦存在失控風(fēng)險(xiǎn),可能造成他人損害。人形機(jī)器人具備自主學(xué)習(xí)能力,可以成為輔助個(gè)人活動(dòng)的能動(dòng)工具,但也可能產(chǎn)生難以預(yù)料和解釋的決策結(jié)果,造成他人權(quán)益受損。 設(shè)置人形機(jī)器人使用者注意義務(wù),是有效應(yīng)對(duì)前述風(fēng)險(xiǎn)的必要法律手段。總體而言,注意義務(wù)對(duì)使用者提出謹(jǐn)慎行為的要求,具有維護(hù)智能社會(huì)安全秩序的顯著作用。具體而言,其一,使用者注意義務(wù)可以防范人形機(jī)器人濫用風(fēng)險(xiǎn)。人形機(jī)器人運(yùn)行以使用者指令為整體指引,使用者是目標(biāo)行為所涉危險(xiǎn)的開啟者和受益者,要求使用者對(duì)其發(fā)出的指令內(nèi)容,以及人形機(jī)器人執(zhí)行指令的過(guò)程盡必要之注意,可以有效規(guī)范使用者的機(jī)器人使用行為,防止因指令內(nèi)容和執(zhí)行不當(dāng)侵害他人權(quán)益。其二,使用者注意義務(wù)亦為防范人形機(jī)器人失控風(fēng)險(xiǎn)的必要手段。由于人形機(jī)器人處在使用者的直接管控下(包括物理接觸式管控和遠(yuǎn)程管控),人形機(jī)器人存在失控風(fēng)險(xiǎn)時(shí),使用者仍有采取措施預(yù)防風(fēng)險(xiǎn)發(fā)生的可能,如關(guān)閉系統(tǒng)、暫停運(yùn)行等。此外,失控原因不具有可解釋性,并不意味著失控本身絕對(duì)不可預(yù)見(jiàn)、不可避免,在使用者的注意能力范圍內(nèi),要求使用者對(duì)人形機(jī)器人工作過(guò)程保持合理警覺(jué)并盡必要接管義務(wù),是及時(shí)阻斷失控風(fēng)險(xiǎn)的有效手段。其三,人形機(jī)器人制造者、人工智能提供者責(zé)任,并不能替代使用者責(zé)任對(duì)使用風(fēng)險(xiǎn)的防范功能。制造者、提供者責(zé)任可有效預(yù)防人形機(jī)器人產(chǎn)品缺陷、算法缺陷引發(fā)的侵權(quán)風(fēng)險(xiǎn),但對(duì)緣于使用者指令和操作的使用風(fēng)險(xiǎn),使用者基于直接支配地位在風(fēng)險(xiǎn)控制上具有效率優(yōu)勢(shì)。因此,相比制造者和提供者責(zé)任而言,使用者責(zé)任是使用風(fēng)險(xiǎn)的首道防線,完全排除使用者責(zé)任,使用行為不受約束,則使用風(fēng)險(xiǎn)的事前預(yù)防機(jī)制將被過(guò)分削弱。 人形機(jī)器人應(yīng)用可能引發(fā)主體性危機(jī)和共同體危機(jī)。人工智能是人類智能的外化,是人進(jìn)行社會(huì)交往的工具和客體。然而,人形機(jī)器人普遍地介入社會(huì)活動(dòng),則可能產(chǎn)生客體主體化傾向。申言之,人類為獲取物質(zhì)或精神利益,易對(duì)人形機(jī)器人產(chǎn)生智能依賴,以人形機(jī)器人替代自己行為和決策,并受該決策支配。長(zhǎng)此以往,人的主體性地位將遭到削弱,一方面,隨著人形機(jī)器人越來(lái)越頻繁地以人的地位介入社會(huì)關(guān)系,人的主體性將被遮蔽,人的社會(huì)交往能力將被弱化;另一方面,個(gè)體及其所處社會(huì)關(guān)系將被人形機(jī)器人背后的算法所裹挾,更易遭受算法歧視、算法操縱等技術(shù)風(fēng)險(xiǎn)的侵?jǐn)_,走向社會(huì)不平等與單向度。除此之外,人形機(jī)器人等強(qiáng)智能技術(shù)的普及,還可能造成人與人之間的緊密關(guān)聯(lián)逐漸淡化為以機(jī)器人為節(jié)點(diǎn)的間接關(guān)聯(lián)。由此,現(xiàn)實(shí)交往被虛擬交往替代,個(gè)體之間逐漸疏離,個(gè)人的共同體認(rèn)同趨于弱化,傳統(tǒng)倫理規(guī)范和法律規(guī)范的約束力亦會(huì)隨之減弱,進(jìn)而增加違法風(fēng)險(xiǎn)。 面對(duì)前述交往異化風(fēng)險(xiǎn),保持個(gè)人的主體性地位,并結(jié)成相互關(guān)照、相互尊重的緊密共同體,才能使智能技術(shù)朝著符合人類根本利益的方向發(fā)展。在這個(gè)意義上,要求使用者承擔(dān)注意義務(wù)亦具有必要性。一方面,為使用者設(shè)置注意義務(wù),可督促個(gè)人維系自身主體地位。使用者注意義務(wù)可強(qiáng)化人形機(jī)器人的工具屬性,督促使用者正視人形機(jī)器人的風(fēng)險(xiǎn),強(qiáng)化使用者與人形機(jī)器人的“主體—客體”結(jié)構(gòu)。另一方面,注意義務(wù)要求使用者尊重他人利益,可以防止人形機(jī)器人遮蔽人與人之間的社會(huì)關(guān)聯(lián)??偠灾?,使用者注意義務(wù)既強(qiáng)化了使用者的主體性認(rèn)同,避免其完全委身于機(jī)器;也督促個(gè)人在使用人形機(jī)器人時(shí),關(guān)照共同體成員的利益。由此,每個(gè)使用者既受到注意義務(wù)的限制,也因其他使用者負(fù)有注意義務(wù)而獲得保護(hù),從而形成共同應(yīng)對(duì)技術(shù)風(fēng)險(xiǎn)、重塑安全秩序的合作局面。 使用者侵權(quán)責(zé)任的認(rèn)定,涉及使用風(fēng)險(xiǎn)在使用者和受害人之間的分配,需要處理好確保人形機(jī)器人運(yùn)行安全,促進(jìn)人形機(jī)器人技術(shù)發(fā)展與應(yīng)用兩項(xiàng)目標(biāo)之間的關(guān)系。顯然,二者之間存在張力,使用者責(zé)任范疇擴(kuò)張,則受害人利益及其背后的安全價(jià)值可得到更強(qiáng)保護(hù);使用者責(zé)任范疇限縮,則更有利于人形機(jī)器人普及和應(yīng)用。使用者責(zé)任的設(shè)置,需使二者達(dá)致平衡。然而,如何處理安全和發(fā)展之間的關(guān)系,或者說(shuō)需要達(dá)成何種平衡,則同時(shí)受技術(shù)發(fā)展階段、技術(shù)風(fēng)險(xiǎn)程度等多重因素的影響。從縱向?qū)用婵矗诩夹g(shù)成長(zhǎng)期,社會(huì)政策往往偏重于支持技術(shù)發(fā)展;而進(jìn)入技術(shù)發(fā)展的成熟期甚至衰退期,技術(shù)的法律規(guī)制則成為重點(diǎn)。從橫向?qū)用婵?,技術(shù)于不同應(yīng)用領(lǐng)域?qū)⒊尸F(xiàn)不同的風(fēng)險(xiǎn)水平,風(fēng)險(xiǎn)程度高低與風(fēng)險(xiǎn)控制強(qiáng)弱成正比,風(fēng)險(xiǎn)程度越高,相關(guān)技術(shù)應(yīng)用則會(huì)受到更嚴(yán)格的法律限制。 為回應(yīng)不同的利益衡量需要,使用者侵權(quán)責(zé)任需具有充足的制度彈性,而注意義務(wù)規(guī)則可作為使用者侵權(quán)責(zé)任范圍的控制器。法律可基于技術(shù)發(fā)展的不同階段、技術(shù)應(yīng)用的不同風(fēng)險(xiǎn)程度等,調(diào)高或調(diào)低使用者的注意標(biāo)準(zhǔn),為使用者設(shè)置更高或者更低的注意義務(wù),由此限縮或擴(kuò)張使用者的侵權(quán)責(zé)任范疇,以實(shí)現(xiàn)不同的利益衡量需求,適時(shí)傳導(dǎo)社會(huì)政策。顯然,注意標(biāo)準(zhǔn)的動(dòng)態(tài)調(diào)整并非依個(gè)案進(jìn)行,而是針對(duì)技術(shù)發(fā)展的不同階段、不同應(yīng)用領(lǐng)域,確定相應(yīng)的利益衡量目標(biāo),進(jìn)而設(shè)置相應(yīng)注意標(biāo)準(zhǔn)。例如,在人形機(jī)器人技術(shù)成長(zhǎng)期,成熟的操作經(jīng)驗(yàn)和操作規(guī)范往往尚未形成,使用者的注意能力應(yīng)維持在較低標(biāo)準(zhǔn),使用致害風(fēng)險(xiǎn)可主要分配給人形機(jī)器人制造者、人工智能提供者,或通過(guò)保險(xiǎn)制度等保障機(jī)制實(shí)現(xiàn)損害的社會(huì)化分擔(dān);進(jìn)入技術(shù)應(yīng)用成熟期,使用者應(yīng)掌握基本的操作規(guī)范,具備較高的操作能力,此時(shí)應(yīng)適用更高的注意能力標(biāo)準(zhǔn)。此外,在風(fēng)險(xiǎn)程度更高的應(yīng)用領(lǐng)域,使用者客觀上更可能預(yù)見(jiàn)損害發(fā)生的危險(xiǎn),應(yīng)具有更高的注意能力,承擔(dān)更高的注意義務(wù)。 有關(guān)正當(dāng)性的證成,還需回應(yīng)的一個(gè)問(wèn)題是,人形機(jī)器人具有自主學(xué)習(xí)能力,并在數(shù)據(jù)處理、分析和決策方面超出使用者的自然能力,這是否會(huì)導(dǎo)致使用者控制人形機(jī)器人本身成為偽命題,進(jìn)而動(dòng)搖使用者注意義務(wù)的實(shí)踐基礎(chǔ)。應(yīng)當(dāng)認(rèn)為,人形機(jī)器人的高級(jí)智能并不會(huì)推翻使用者注意義務(wù)的正當(dāng)性。具體而言,人形機(jī)器人對(duì)使用者的實(shí)質(zhì)意義是,延伸使用者的活動(dòng)范圍,增強(qiáng)使用者的活動(dòng)能力。誠(chéng)然,相比其他工具而言,人形機(jī)器人具有更優(yōu)的輔助作用,但所謂學(xué)習(xí)與決策的“自主”,是指人形機(jī)器人的分析與決策摻雜了一定的“能動(dòng)性”,其不再完全由人決定,但這也遠(yuǎn)未達(dá)到完全由其自主決定而無(wú)需人介入的程度。人形機(jī)器人無(wú)論如何智能,都難以具備人的獨(dú)立性和自主性,其自主學(xué)習(xí)與決策仍整體遵從使用者的指令,人形機(jī)器人何時(shí)開啟、何時(shí)停止以及從事何種目的性活動(dòng)受使用者管控。另外,盡管人形機(jī)器人基于自主學(xué)習(xí)作出的決策可能超出使用者的預(yù)見(jiàn)范圍,不具有可解釋性,但這亦不妨礙使用者在其支配能力范圍內(nèi)承擔(dān)注意義務(wù),而對(duì)于因人形機(jī)器人自主決策引起的、超出使用者預(yù)見(jiàn)能力的損害,使用者不負(fù)擔(dān)注意義務(wù),侵權(quán)責(zé)任可由人形機(jī)器人制造者、人工智能提供者承擔(dān)。 綜上,使用者注意義務(wù)規(guī)則設(shè)置可預(yù)防人形機(jī)器人濫用風(fēng)險(xiǎn)和失控風(fēng)險(xiǎn),并有利于督促使用者在人形機(jī)器人使用中保持自身的主體地位,尊重和保護(hù)其他共同體成員的利益,負(fù)責(zé)任地使用人形機(jī)器人。除此之外,使用者注意義務(wù)還可作為社會(huì)政策的傳導(dǎo)工具,適時(shí)調(diào)整使用者侵權(quán)責(zé)任的范疇,以契合技術(shù)發(fā)展不同階段、不同應(yīng)用領(lǐng)域的利益衡平目標(biāo)。 三、人形機(jī)器人使用者注意義務(wù)規(guī)則 抽象意義上,所有使用者在使用人形機(jī)器人時(shí)都應(yīng)盡必要之注意。然而,由于使用者對(duì)人形機(jī)器人的支配能力受限,仍需從注意義務(wù)的內(nèi)容、成立要件和注意義務(wù)的免除情形三個(gè)方面,就使用者注意義務(wù)進(jìn)行限定,以避免使用者承擔(dān)過(guò)重的侵權(quán)責(zé)任。 使用者使用人形機(jī)器人的行為過(guò)程可分解為三個(gè)階段,一是使用者作出指令,二是機(jī)器人接收指令,三是機(jī)器人執(zhí)行指令、實(shí)施目標(biāo)行為。在整個(gè)過(guò)程中,使用者的義務(wù)可分為合理指令義務(wù)、合理操作義務(wù)、合理的過(guò)程管理義務(wù),具體分述如下。需說(shuō)明的是,本文是就使用者注意義務(wù)所作的初步設(shè)想,具體內(nèi)容還留待人形機(jī)器人推廣、人機(jī)交互規(guī)范和機(jī)器人操作規(guī)范細(xì)化后,進(jìn)行補(bǔ)充和修正。 指令合理是指,使用者的指令內(nèi)容應(yīng)當(dāng)合法、正當(dāng)、明確,避免人形機(jī)器人依照指令進(jìn)行的活動(dòng)可能造成他人權(quán)益受到危險(xiǎn)或損害。合理指令義務(wù)的功能是,約束使用者的指令行為,使其不得指令人形機(jī)器人實(shí)施可能侵害他人權(quán)益的行為,防范人形機(jī)器人濫用風(fēng)險(xiǎn)。 人形機(jī)器人活動(dòng)受使用者指令內(nèi)容的支配,因此,指令合理的核心要素是指令內(nèi)容合理。具體來(lái)看,指令內(nèi)容既包括對(duì)目標(biāo)的指令,亦即使用者指令人形機(jī)器人所欲完成的目標(biāo)活動(dòng)之內(nèi)容;還包括對(duì)人形機(jī)器人活動(dòng)過(guò)程的指令,亦即使用者就人形機(jī)器人實(shí)施目標(biāo)活動(dòng)的過(guò)程規(guī)則作出指令,如使用者基于目標(biāo)活動(dòng)為人形機(jī)器人設(shè)置相應(yīng)參數(shù)、選取分析模型、進(jìn)行價(jià)值對(duì)齊等。 依指令內(nèi)容的分類,合理指令義務(wù)則涉及確保目標(biāo)指令合理的義務(wù)、確保過(guò)程指令合理的義務(wù)。目標(biāo)指令合理是指,使用者的目標(biāo)指令不應(yīng)包含侵害他人權(quán)益的內(nèi)容,若指令的目標(biāo)內(nèi)容所指向的目標(biāo)行為通常都會(huì)導(dǎo)致他人受到危險(xiǎn)或損害,則使用者應(yīng)避免作出相應(yīng)目標(biāo)指令。過(guò)程指令合理是指,使用者對(duì)人形機(jī)器人運(yùn)行過(guò)程的指令不應(yīng)導(dǎo)致人形機(jī)器人侵害他人權(quán)益,若使用者通過(guò)參數(shù)設(shè)置、模型設(shè)置為人形機(jī)器人指定的活動(dòng)規(guī)則通常會(huì)導(dǎo)致他人受到危險(xiǎn)或損害,則使用者有避免作出相應(yīng)過(guò)程指令,正確設(shè)置參數(shù)和模型的義務(wù)。 從義務(wù)來(lái)源來(lái)看,合理指令義務(wù)既包括法定義務(wù),也包括非法定義務(wù)。就法定義務(wù)而言,由于人形機(jī)器人是使用者的活動(dòng)工具,指令內(nèi)容即為使用者目標(biāo)行為的內(nèi)容,因此法律對(duì)使用者施加的行為規(guī)范,可直接作為法定的合理指令義務(wù)之依據(jù)。例如,我國(guó)民法典第1024條規(guī)定,任何人不得以侮辱、誹謗方式侵害他人名譽(yù)權(quán);相應(yīng)地,行為人不得指令人形機(jī)器人制作并傳播侮辱、誹謗他人的圖片、文字、視頻等。除此之外,人形機(jī)器人運(yùn)行可能包含深度合成、生成式人工智能等技術(shù)應(yīng)用,我國(guó)立法在深度合成服務(wù)、生成式人工智能領(lǐng)域?qū)κ褂谜呤┘拥牧x務(wù),亦應(yīng)適用于人形機(jī)器人使用者,約束其指令行為。如《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》規(guī)定使用者不得利用深度合成服務(wù)制作、復(fù)制、發(fā)布、傳播虛假新聞信息,不得采用技術(shù)手段刪除、篡改、隱匿深度合成標(biāo)識(shí)。人形機(jī)器人使用者即應(yīng)盡前述義務(wù),不得發(fā)出前述指令。此外,人形機(jī)器人具有信息處理能力,使用者在使用人形機(jī)器人時(shí)可能處于信息處理者地位,須遵循個(gè)人信息保護(hù)法,確保個(gè)人信息處理取得個(gè)人同意或者滿足其他合法事由,并履行安全保障義務(wù)以及其他個(gè)人信息處理者應(yīng)盡之義務(wù)。需說(shuō)明的是,使用者指令人形機(jī)器人處理個(gè)人信息時(shí),使用者與人工智能提供者之間并不構(gòu)成委托關(guān)系,實(shí)際進(jìn)行信息處理操作的人工智能提供者不能主張其為個(gè)人信息處理受托人,僅承擔(dān)協(xié)助處理義務(wù)和較低水平的信息安全保障義務(wù)。原因在于,一方面使用者和人工智能提供者之間并未達(dá)成委托合同;另一方面,在處理過(guò)程中,使用者僅發(fā)出目標(biāo)指令,影響信息處理目標(biāo),而如何處理個(gè)人信息、處理哪些個(gè)人信息仍由人工智能提供者主導(dǎo),二者應(yīng)同為個(gè)人信息處理者,均須承擔(dān)處理者義務(wù)。 未來(lái),隨著人形機(jī)器人應(yīng)用實(shí)踐發(fā)展,立法還須完善人機(jī)交互規(guī)范,細(xì)化使用者的合理指令義務(wù)。此外,除法定義務(wù),使用者在發(fā)出指令時(shí)還可能負(fù)擔(dān)非法定注意義務(wù)。此類義務(wù)并非由法律規(guī)范直接施加給使用者,有待法官在案件中依注意義務(wù)的成立要件作具體認(rèn)定。 合理操作義務(wù),是指使用者的操作行為應(yīng)符合操作規(guī)范,避免人形機(jī)器人在執(zhí)行指令過(guò)程中發(fā)生不合理的物理故障、系統(tǒng)故障、信息安全故障或者其他可能造成他人損害的故障。與合理指令義務(wù)不同,合理操作義務(wù)要求使用者謹(jǐn)慎操作機(jī)器人,前者關(guān)注“用人形機(jī)器人做什么”,后者關(guān)注“怎么用人形機(jī)器人”。 人形機(jī)器人要成功模擬人類自主活動(dòng),需要運(yùn)動(dòng)規(guī)劃與控制(包括控制位置、姿態(tài)、速度、軌跡、力量等)、計(jì)算機(jī)感知(包括視覺(jué)、聽覺(jué)、觸覺(jué)以及自身狀態(tài)測(cè)量)、自主學(xué)習(xí)和決策(包括語(yǔ)義理解、語(yǔ)音合成等)以及信息處理、算法分析等技術(shù)協(xié)同工作。人形機(jī)器人安全運(yùn)行有賴于人形機(jī)器人制造者、人工智能提供者執(zhí)行安全標(biāo)準(zhǔn)、落實(shí)安全測(cè)試、履行安全保障義務(wù),但使用者的不當(dāng)操作也可能誘發(fā)安全隱患。為此,使用者作為直接操作者,應(yīng)當(dāng)承擔(dān)合理操作義務(wù)。換言之,若實(shí)施或者不實(shí)施某種操作行為通常會(huì)導(dǎo)致人形機(jī)器人故障,進(jìn)而使他人權(quán)益遭受危險(xiǎn)或損害,則使用者對(duì)應(yīng)地負(fù)有不實(shí)施或者實(shí)施某種操作的注意義務(wù)。 參考我國(guó)現(xiàn)有機(jī)器人安全標(biāo)準(zhǔn),未來(lái)人形機(jī)器人安全運(yùn)行至少需確保機(jī)械安全、電氣安全、控制系統(tǒng)安全、信息安全。為此,使用者合理操作義務(wù)可從以下四個(gè)方面設(shè)置:一是,機(jī)械安全,主要是確保人形機(jī)器人肢體結(jié)構(gòu)的穩(wěn)定、完整。具體要求包括,使用者不應(yīng)破壞人形機(jī)器人肢體結(jié)構(gòu)(如拆除主體結(jié)構(gòu)),不應(yīng)破壞人形機(jī)器人防護(hù)措施(如拆除防護(hù)裝置、暴露機(jī)器人肢體尖銳部位)。二是,電氣安全,主要是使用者應(yīng)確保人形機(jī)器人運(yùn)行的電氣環(huán)境安全,不應(yīng)破壞人形機(jī)器人的電氣防護(hù)裝置。三是,控制系統(tǒng)安全,主要是確保人形機(jī)器人運(yùn)動(dòng)控制、力控制等的安全。由于控制系統(tǒng)安全通常由機(jī)器人肢體質(zhì)量和支撐性技術(shù)的可靠程度決定,因此該領(lǐng)域所涉的安全保障義務(wù)應(yīng)主要由人形機(jī)器人制造者承擔(dān)。四是,信息安全,主要涉及個(gè)人信息安全和數(shù)據(jù)安全。數(shù)據(jù)處理是人形機(jī)器人實(shí)現(xiàn)綜合感知、完成自主學(xué)習(xí)與決策的必要支撐,在執(zhí)行指令過(guò)程中,人形機(jī)器人很可能收集并儲(chǔ)存了大量個(gè)人信息和數(shù)據(jù),此時(shí),使用者應(yīng)履行個(gè)人信息安全與數(shù)據(jù)安全保護(hù)義務(wù),不得泄露個(gè)人信息和存在安全風(fēng)險(xiǎn)的數(shù)據(jù)。前述義務(wù)主要為不作為義務(wù),即使用者不應(yīng)實(shí)施明顯破壞機(jī)器人運(yùn)行安全的操作行為。除此之外,當(dāng)人形機(jī)器人存在危及運(yùn)行安全的重大缺陷時(shí),使用者還具有停止使用、及時(shí)檢修的義務(wù)。 合理的過(guò)程管理義務(wù)是指,使用者在人形機(jī)器人執(zhí)行指令過(guò)程中,對(duì)人形機(jī)器人的運(yùn)行狀態(tài)仍須保持警覺(jué),并在必要時(shí)予以接管的義務(wù)。合理的過(guò)程管理義務(wù)是一種持續(xù)性義務(wù),且主要為作為義務(wù),其要求使用者在人形機(jī)器人運(yùn)行過(guò)程中,維持對(duì)人形機(jī)器人的基本控制力,以便在必要時(shí)采取措施防止損害發(fā)生。就過(guò)程管理義務(wù)的內(nèi)容而言,具體包括過(guò)程監(jiān)控義務(wù)和必要接管義務(wù)。過(guò)程監(jiān)控義務(wù)要求使用者持續(xù)觀察人形機(jī)器人運(yùn)行狀況,監(jiān)控程度以能夠及時(shí)接收警示信息為最低限度。必要接管義務(wù)則是指,使用者在必要時(shí)采取緊急措施,使人形機(jī)器人停止運(yùn)行,或者恢復(fù)到安全狀態(tài)。 由于合理的過(guò)程管理義務(wù)對(duì)使用者提出了更高的注意要求,有必要就其正當(dāng)性再作補(bǔ)充。首先,合理過(guò)程管理義務(wù)是應(yīng)對(duì)人形機(jī)器人失控風(fēng)險(xiǎn)的重要手段。如前所述,在人形機(jī)器人失控情形下,相比人形機(jī)器人制造者和人工智能提供者,使用者與風(fēng)險(xiǎn)最為鄰近,在條件具備時(shí)可快速實(shí)現(xiàn)對(duì)人形機(jī)器人的控制,避免損害發(fā)生。此時(shí),合理的過(guò)程管理義務(wù)可與制造者、提供者之義務(wù)形成規(guī)范上的合力,強(qiáng)化侵權(quán)責(zé)任制度在失控風(fēng)險(xiǎn)防范方面的積極作用。其次,合理的過(guò)程管理義務(wù)并非要求使用者對(duì)人形機(jī)器人實(shí)現(xiàn)全過(guò)程的深度監(jiān)管,其需滿足義務(wù)必要性、損害可預(yù)見(jiàn)性和損害可回避性要件,只有當(dāng)人形機(jī)器人即將或者已經(jīng)失控,人形機(jī)器人發(fā)出警示并提供接管手段,不及時(shí)接管即可能導(dǎo)致?lián)p害發(fā)生時(shí),使用者才承擔(dān)合理接管義務(wù),須在支配能力范圍內(nèi)實(shí)施必要措施。誠(chéng)然,合理的過(guò)程管理義務(wù)將減損使用者的使用便利,但減損程度并不足以推翻合理管理義務(wù)的正當(dāng)性,人形機(jī)器人所帶來(lái)的個(gè)人便利、社會(huì)紅利遠(yuǎn)遠(yuǎn)大于過(guò)程管理義務(wù)所生負(fù)擔(dān),后者不足以從根本上抑制人形機(jī)器人的使用。 前文僅就使用者注意義務(wù)的內(nèi)容作類型化梳理,尚未涉及注意義務(wù)的成立問(wèn)題。應(yīng)當(dāng)認(rèn)為,并非在任何損害發(fā)生情形下,使用者一概承擔(dān)注意義務(wù)。在侵權(quán)責(zé)任認(rèn)定中,前述義務(wù)只有經(jīng)注意義務(wù)的成立要件檢驗(yàn),才可能觸發(fā)使用者侵權(quán)責(zé)任。使用者注意義務(wù)的成立,則須滿足必要性、可預(yù)見(jiàn)性、可避免性三個(gè)要件。 必要性是指,使用者所負(fù)注意義務(wù)必須是可以避免危險(xiǎn)或損害發(fā)生的手段,即通常意義上,使用者盡到該注意義務(wù)可以避免危險(xiǎn)或者損害發(fā)生。反之,假設(shè)使用者即使履行該義務(wù),也不能避免危險(xiǎn)或損害發(fā)生,則相關(guān)義務(wù)并不構(gòu)成使用者的注意義務(wù)。必要性要件將不具有損害結(jié)果回避功能的義務(wù)排除在注意義務(wù)范疇之外,防止使用者侵權(quán)責(zé)任范疇過(guò)寬。例如,使用者雖未能定期檢修人形機(jī)器人,但人形機(jī)器人使用致害乃黑客攻擊所致,即使使用者定期檢修亦不能避免損害發(fā)生,由于定期檢修義務(wù)未能滿足必要性要件,并不構(gòu)成使用者的注意義務(wù),使用者違反定期檢修義務(wù)不具有侵權(quán)法上的違法性,亦不能認(rèn)定使用者有過(guò)錯(cuò)。 可預(yù)見(jiàn)性是指,使用者可預(yù)見(jiàn)到不履行義務(wù)將發(fā)生危險(xiǎn)或損害??深A(yù)見(jiàn)性對(duì)于注意義務(wù)成立的判定意義表現(xiàn)為,使用者應(yīng)當(dāng)履行符合其預(yù)見(jiàn)能力的注意義務(wù),但無(wú)需履行超出其預(yù)見(jiàn)能力的注意義務(wù)。該要件的認(rèn)定需從以下兩個(gè)方面進(jìn)行考慮。 其一,預(yù)見(jiàn)能力基準(zhǔn)??深A(yù)見(jiàn)性的判定并非以某個(gè)具體使用者的預(yù)見(jiàn)能力為基準(zhǔn),而是以理性使用者的預(yù)見(jiàn)能力為客觀基準(zhǔn)。從這個(gè)意義上說(shuō),注意義務(wù)是一種應(yīng)然意義上的預(yù)見(jiàn)義務(wù),其要求使用者具備理性使用者所具備的預(yù)見(jiàn)能力,并履行與該能力相匹配的注意義務(wù);使用者對(duì)自身預(yù)見(jiàn)能力的不當(dāng)降低或者喪失負(fù)有責(zé)任,亦對(duì)未能盡相應(yīng)義務(wù)負(fù)有責(zé)任。其中,理性使用者的預(yù)見(jiàn)能力包含三個(gè)層面。一是具備一般的知識(shí)與經(jīng)驗(yàn),理性使用者首先是一般理性人。二是具備人形機(jī)器人操作所需的一般知識(shí)與技巧。隨著人形機(jī)器人技術(shù)發(fā)展、應(yīng)用普及、操作規(guī)范完善,此一能力標(biāo)準(zhǔn)亦有提高之趨勢(shì)。三是具有實(shí)施目標(biāo)行為所要求的知識(shí)和能力。若使用者指令人形機(jī)器人從事專業(yè)活動(dòng)(如診療活動(dòng)),使用者亦需具備對(duì)應(yīng)領(lǐng)域所必要的專業(yè)知識(shí)、經(jīng)驗(yàn)和能力??梢?jiàn),相比日常生活中的一般理性人而言,理性使用者的注意能力標(biāo)準(zhǔn)更高。 其二,預(yù)見(jiàn)可能性的考察,即判定使用者“是否可能預(yù)見(jiàn)”損害或危險(xiǎn)發(fā)生,需綜合考量以下因素。一是,機(jī)器人活動(dòng)的風(fēng)險(xiǎn)程度。此一要素是對(duì)抽象風(fēng)險(xiǎn)的考察,即對(duì)機(jī)器人活動(dòng)(包括機(jī)器人自身運(yùn)行和目標(biāo)行為)致害的風(fēng)險(xiǎn)程度進(jìn)行一般性評(píng)估,不涉及對(duì)具體危險(xiǎn)的預(yù)見(jiàn)。抽象風(fēng)險(xiǎn)主要受機(jī)器人作業(yè)環(huán)境、目標(biāo)行為風(fēng)險(xiǎn)程度的影響。通常,機(jī)器人活動(dòng)的抽象風(fēng)險(xiǎn)程度越高,預(yù)見(jiàn)可能性越高,使用者亦須負(fù)擔(dān)更高程度的注意義務(wù)。例如,機(jī)器人作業(yè)環(huán)境復(fù)雜(如天氣惡劣、高溫高壓),或目標(biāo)行為的風(fēng)險(xiǎn)程度較高時(shí)(如駕駛汽車、從事診療活動(dòng)等),則使用者須負(fù)注意程度更高的合理操作義務(wù)、過(guò)程管理義務(wù)。二是,損害發(fā)生之蓋然性程度。此一要素意在考察具體危險(xiǎn)在多大程度上可以轉(zhuǎn)化為損害。通常而言,危險(xiǎn)越具體,損害發(fā)生的蓋然性程度越高,使用者越可能預(yù)見(jiàn)損害發(fā)生。例如,當(dāng)人形機(jī)器人避障功能失靈、發(fā)出警示,且即將倒向受害人時(shí),此種危險(xiǎn)已經(jīng)足夠具體,應(yīng)認(rèn)定為滿足可預(yù)見(jiàn)性標(biāo)準(zhǔn)。 就不作為義務(wù)而言,使用者可預(yù)見(jiàn)損害或危險(xiǎn)發(fā)生時(shí),不作為(即停止行為)即可避免損害發(fā)生。就作為義務(wù)而言,使用者為避免損害發(fā)生需要采取積極的預(yù)防措施,此時(shí),注意義務(wù)的成立還涉及可避免性的考察??杀苊庑允侵副苊鈸p害發(fā)生的可能性,其關(guān)注的是使用者是否有能力實(shí)施避免損害發(fā)生所需的預(yù)防措施。可避免性對(duì)于注意義務(wù)成立的判定意義表現(xiàn)為,法律要求使用者在避免能力范圍內(nèi)采取預(yù)防措施,但若預(yù)防措施超出避免能力,即使使用者可以預(yù)見(jiàn)損害,也不負(fù)結(jié)果回避之注意義務(wù)。 可避免性認(rèn)定涉及避免能力基準(zhǔn)和避免可能性的判定。在避免能力基準(zhǔn)上,同預(yù)見(jiàn)能力基準(zhǔn)相似,使用者需具備理性使用者所具有的采取合理預(yù)防措施的能力,具體包括從事日常社會(huì)交往所需的、使用機(jī)器人所需的以及從事目標(biāo)行為所需的避免損害發(fā)生之能力。避免可能性的判定,本質(zhì)上是考察使用者是否有能力實(shí)施合理預(yù)防措施,即理性使用者所具有的結(jié)果回避能力是否足以預(yù)防即將發(fā)生的損害,需結(jié)合以下因素綜合認(rèn)定。一是,機(jī)器人活動(dòng)的風(fēng)險(xiǎn)程度。若機(jī)器人活動(dòng)的風(fēng)險(xiǎn)程度更高,則使用者除面臨更高的預(yù)見(jiàn)義務(wù)外,也需承擔(dān)更高的結(jié)果回避義務(wù)。概言之,機(jī)器人活動(dòng)越危險(xiǎn),使用者注意義務(wù)越重。二是,受損利益的重要程度。對(duì)于重要利益,法律往往會(huì)設(shè)置更高的結(jié)果回避義務(wù)。因此,若人形機(jī)器人可能損害他人的重要權(quán)益(如物質(zhì)性人格權(quán)),使用者則應(yīng)具備更高的結(jié)果回避能力。三是,結(jié)果回避義務(wù)對(duì)使用者造成的利益減損程度。結(jié)果回避義務(wù)主要是采取措施避免損害的作為義務(wù),其要求使用者負(fù)擔(dān)一定的預(yù)防成本,因此結(jié)果回避義務(wù)的設(shè)置還需考量成本—效益因素,原則上,不應(yīng)要求使用者承擔(dān)成本過(guò)高的結(jié)果回避義務(wù)。 如前所述,由于存在技術(shù)壁壘,使用者普遍且客觀地處于信息不完全狀態(tài),不具有支配人形機(jī)器人所需的全部信息,其對(duì)人形機(jī)器人的支配和管理往往以人形機(jī)器人制造者、人工智能提供者進(jìn)行操作提示與提供操作手段為前提。申言之,使用者的支配力受制于制造者、提供者提供的輔助信息與輔助手段?;诖耍瑧?yīng)將制造者、提供者未履行必要的輔助性義務(wù),作為使用者相應(yīng)注意義務(wù)的排除情形。若制造者、提供者未能盡到輔助性義務(wù),則應(yīng)免除使用者的注意義務(wù)。其中,輔助性義務(wù)是指輔助使用者及時(shí)避免損害發(fā)生的義務(wù)。依輔助內(nèi)容之不同,輔助性義務(wù)又可分為:提供輔助信息義務(wù)、提供輔助手段義務(wù)和輔助更新義務(wù)。提供輔助信息,即人形機(jī)器人制造者、人工智能提供者應(yīng)充分告知使用者正確的操作規(guī)范,并在使用者指令、操作明顯不當(dāng),或者損害即將發(fā)生時(shí)發(fā)出明示性警示。提供輔助手段,即制造者、提供者應(yīng)為使用者提供必要的避免損害發(fā)生的手段和方法(如設(shè)置急停裝置)。輔助更新義務(wù)是指,制造者、提供者應(yīng)及時(shí)提示使用者更新人形機(jī)器人系統(tǒng)和功能,并提供相應(yīng)的更新操作指示和路徑。制造者、提供者未能履行必要輔助義務(wù)的,則免除使用者注意義務(wù)。免除情形的適用則需滿足兩個(gè)要件。一是,使用者避免損害發(fā)生,以制造者、提供者提供輔助信息、輔助手段,提示并指引系統(tǒng)更新、功能更新為必要;二是,制造者、提供者未盡到及時(shí)告知和警示義務(wù),或未盡到提供預(yù)防手段、提示并引導(dǎo)系統(tǒng)、功能更新等輔助性義務(wù)。一旦免除事由成立,則應(yīng)認(rèn)定使用者不負(fù)有注意義務(wù),亦無(wú)需承擔(dān)侵權(quán)責(zé)任。 以人形機(jī)器人制造者和人工智能提供者未履行必要輔助義務(wù),作為使用者注意義務(wù)的免除事由,具有妥當(dāng)性。其一,使用者對(duì)人形機(jī)器人的支配力有限,注意義務(wù)程度理應(yīng)以其支配能力為基本限度,以避免對(duì)使用者施加嚴(yán)格責(zé)任。其二,制造者、提供者掌握人形機(jī)器人運(yùn)行所需的核心技術(shù),有能力為使用者支配和管控人形機(jī)器人提供技術(shù)和設(shè)備支持;且使用者亦有合理理由期待并信賴制造者、提供者周全考慮人形機(jī)器人使用中的潛在風(fēng)險(xiǎn),并輔助其預(yù)防和控制風(fēng)險(xiǎn)。其三,必要輔助義務(wù)實(shí)際上要求制造者、提供者對(duì)使用者的不合理指令和不合理操作及其可能引發(fā)的損害負(fù)擔(dān)一定的預(yù)見(jiàn)與避免義務(wù),這有助于引導(dǎo)制造者、提供者重視風(fēng)險(xiǎn)預(yù)測(cè)和風(fēng)險(xiǎn)警示,完善風(fēng)險(xiǎn)防范方案,進(jìn)而達(dá)到降低人形機(jī)器人使用風(fēng)險(xiǎn),提升使用者操作水平的效果。需說(shuō)明的是,該免除事由不可倒推適用,即不能依據(jù)制造者、提供者已經(jīng)履行必要輔助義務(wù),推定使用者未盡到注意義務(wù),使用者是否存在注意義務(wù),仍需結(jié)合前述標(biāo)準(zhǔn)作出判定。 ![]() 圖1 使用者注意義務(wù)的認(rèn)定過(guò)程 |
|
來(lái)自: 陽(yáng)光正能 > 《創(chuàng)新》