原文: Developinga data ethics framework in the age of AI 來源: http://www./data/establishing-data-ethics-in-age-of-ai-3659269/ 英國國家醫(yī)療服務體系NHS就在其健康醫(yī)療大數(shù)據(jù)平臺care.data停擺一事中,失去了這種“執(zhí)照”。盡管利用NHS數(shù)據(jù)記錄來提升醫(yī)療服務的概念得到了廣泛的支持,但該機構(gòu)對數(shù)據(jù)保護問題的處置引起了公眾的強烈抗議,最終摧毀了這項計劃。 任何由數(shù)據(jù)驅(qū)動的自動決策,都是基于感知到的風險和責任水平來接受評估。例如,與自動駕駛汽車建議相比,亞馬遜的購物建議得到的關(guān)注就要少得多。 人工智能兩種不同的發(fā)展前景:第一種被稱為“泳池模型”,即人工智能的“池水”將溢滿整個世界;第二種是他自己預測的“坑洞模型”,即人工智能的“水滴”會滴落在一切事物上,但只會注滿特定的“坑洞”。 原文翻譯: 近段時間,數(shù)據(jù)倫理進入主流視野,我們看到媒體報道了有人在YouTube上宣傳恐怖主義,大數(shù)據(jù)公司Cambridge Analytica利用Facebook帖子進行個性化競選活動,以及打車應用Uber被無休止的丑聞吞沒。 我們所遵行的原則和法規(guī)已難以跟上技術(shù)的發(fā)展步伐。英國科技企業(yè)游說組織techUK召集了一個專家小組,討論了如何確保行為符合規(guī)范。技術(shù)的最新進步正在不斷延展關(guān)于知情同意和隱私的倫理觀念,在這種情況下,我們需要一個新的框架來建立保護數(shù)據(jù)的標準。 “我們需要可以提供確定性的標準來進行創(chuàng)新。”英國皇家統(tǒng)計學會(Royal Statistical Society)的執(zhí)行理事赫丹·沙阿(HetanShah)說,“失去了公眾信任,我們就可能失去'營業(yè)執(zhí)照’。” 英國國家醫(yī)療服務體系NHS就在其健康醫(yī)療大數(shù)據(jù)平臺care.data停擺一事中,失去了這種“執(zhí)照”。盡管利用NHS數(shù)據(jù)記錄來提升醫(yī)療服務的概念得到了廣泛的支持,但該機構(gòu)對數(shù)據(jù)保護問題的處置引起了公眾的強烈抗議,最終摧毀了這項計劃。 公眾對數(shù)據(jù)使用的態(tài)度 近期關(guān)于數(shù)據(jù)使用的丑聞使得公眾信任處于低水平。英國皇家學會(The Royal Society)最近展開了一項調(diào)查,詢問公眾對一家機構(gòu)的信任度,以及如果要向該機構(gòu)提交你的數(shù)據(jù),此時你對它的信任度還有多高。 “人們對第二個問題的信任度總是低于第一個?!鄙嘲⒄f,“如果一家機構(gòu)掌握著你的數(shù)據(jù),你對它的信任度絕不會超過之前它沒有掌握數(shù)據(jù)時的情況。信任出現(xiàn)了赤字,這是一個社會問題?!?/font> 英國皇家學會的科學政策主任克萊爾·克雷格(Claire Craig)參與了一項調(diào)查,向擁有不同社會經(jīng)濟背景的英國公民,詢問他們對于數(shù)據(jù)使用的看法。這項定性研究揭示,公眾判斷風險的標準始于對動機的感知。 “主要訊息是情境的重要性。”克雷格說,“對于數(shù)據(jù)的某種應用,他們判斷其風險和好處的基本標準始于對動機的感知?!?/font> “他們真的很關(guān)心為什么一項新技術(shù)會被引入,為什么會有新的應用,以及數(shù)據(jù)有哪些,目的是什么。他們也關(guān)心受益者,尤其是,如果他們看到它幫到了自己,幫到了像自己一樣的人、像自己一樣的群體以及更大范圍的群體,他們的態(tài)度會更加支持?!?/font> 從根本上說,消費者需要得到直接的好處。如果這件事幫到了人們,賺不賺錢就不是問題。 任何由數(shù)據(jù)驅(qū)動的自動決策,都是基于感知到的風險和責任水平來接受評估。例如,與自動駕駛汽車建議相比,亞馬遜的購物建議得到的關(guān)注就要少得多。 人們支持那些能夠?qū)崿F(xiàn)更多人際交往的技術(shù)應用,比如,技術(shù)可以省下時間,讓用戶與親友有更多的交流。 對技術(shù)的過度依賴可能導致人們永久性地失去歷代人所掌握的技能。 技術(shù)需要被證明能夠增強而不是削弱人類的能力。能夠幫助專業(yè)人士省下時間從事更重要工作的技術(shù),將得到廣泛支持,但那些有可能取代人力的自動化技術(shù)將讓人們心生警惕,這一點毫不意外。 “人們很擔心自己會被取代,對未來的工作也有很大的擔憂?!笨死赘裾f,“那些潛在的新工作,都在哪里呢?” 隨著技術(shù)讓我們走上無個性化的必然道路,并挑戰(zhàn)人之為人的本質(zhì)和價值,這些擔憂會發(fā)展成有關(guān)存在價值的恐懼。如果一臺計算機能夠比你更好地完成所有工作,如果一種算法有權(quán)力決定你的選擇,那么自由在職業(yè)、教育和財政支持等領(lǐng)域遭到限制,似乎就是不可避免的后果。 建立信任 數(shù)據(jù)的有益使用得到的媒體曝光很少與其負面使用得到的曝光度相同。拉斯維加斯的賭場或許會用數(shù)據(jù)科學來估算你的消費門檻,并在你達到那個門檻時送上一杯酒,希望你能繼續(xù)消費。但同時,我們也看到Streams這樣的應用通過掃描患者數(shù)據(jù)來預測急性腎損傷風險,從而達到提升醫(yī)療效果和減輕護士日常工作負擔的目的。 我們可以通過宣傳正面使用的事例來提升公眾的信任,比如倫敦交通局使用開放數(shù)據(jù)預測公交車的到站時間,或是食品標準局通過社交網(wǎng)絡來監(jiān)測諾如病毒的傳播。 咨詢公司FrontierEconomics在最近的一份報告中預測,到2035年時,人工智能將為英國經(jīng)濟增加8,140億美元的產(chǎn)值,并讓經(jīng)濟增長率從2.5%上升到3.9%。 “這些實實在在的數(shù)字令人印象深刻,但它們?nèi)匀晃茨艹浞址从秤蓴?shù)據(jù)驅(qū)動的技術(shù),比如數(shù)據(jù)分析和人工智能,將如何積極地改變經(jīng)濟和生活的方方面面,并真正幫助我們建設(shè)更加富裕、更加健康和更加清潔的社區(qū)。”微軟英國的政府事務經(jīng)理歐文·拉特(Owen Larter)說。 美國醫(yī)療系統(tǒng)已經(jīng)在應用能夠進行模式識別的算法技術(shù),來應對醫(yī)院中可預防的錯誤,這些醫(yī)療事故是位居癌癥和心臟病之后的第三大致死原因。由數(shù)據(jù)驅(qū)動的模式識別技術(shù)可以依照既有的最佳臨床實踐,為醫(yī)生標記出反?,F(xiàn)象,防止這些錯誤造成重大傷害。 如今,英國背負著倫理責任,它要應對一系列挑戰(zhàn),比如老齡化人口的醫(yī)療費用問題,那意味著,今天的NHS到了明天將無法維持。 techUK的副首席執(zhí)行官安東尼·沃克(Antony Walker)認為,我們開發(fā)的數(shù)據(jù)寶藏能夠拯救生命,但前提是它的潛力得到釋放。 “如果我們希望子孫后代能夠擁有一套免費的醫(yī)療服務體系,我們對他們是有倫理上的責任的?!蔽挚苏f,“做成這件事的唯一辦法是通過使用數(shù)據(jù)?!?/font> 當涉及計算機代碼時,追究責任可能成為一個難題,但讓整個過程可審計,解釋其中的工作原理,將幫助建立公眾信任??死赘裾J為,我們還需要對公眾擔心的事情做出回應。 “透明度是必要的,但絕對說不上什么效率。”他說,“知道發(fā)生了什么事,這只是起點?!?/font> 問責、職責和責任是一個復雜的三角。最后一個會真正對公司造成損害,也是違規(guī)需要得到糾正的地方。 除了上述關(guān)于隱私、治理和知情同意的問題,在數(shù)據(jù)公平和偏見方面,公眾也存在著持續(xù)的擔憂。與人的意見相比,算法通常被賦予了更多的信任,盡管算法也是人類情感和偏見的產(chǎn)物。 數(shù)據(jù)科學仍然是一門相對較新的學科,因此,科學家需要在數(shù)據(jù)倫理和標準方面,接受全面的訓練。他們設(shè)計的算法造成的結(jié)果應該接受審計,以確保透明度和安全性。 “我們很難窺視算法的黑箱?!鄙嘲⒄f。 他希望組建一個獨立的數(shù)據(jù)倫理委員會,而且,相比建立新的監(jiān)管機構(gòu),他更愿意賦予現(xiàn)有監(jiān)管機構(gòu)額外的權(quán)力。 邁向未來 牛津大學哲學和信息倫理學教授盧西亞諾·弗洛里迪(Luciano Floridi)一直在研究數(shù)據(jù)未來的發(fā)展,以及未來幾年產(chǎn)生的倫理影響。 他描述了人工智能兩種不同的發(fā)展前景:第一種被稱為“泳池模型”,即人工智能的“池水”將溢滿整個世界;第二種是他自己預測的“坑洞模型”,即人工智能的“水滴”會滴落在一切事物上,但只會注滿特定的“坑洞”。 “就連接這些坑洞來說,人工智能不會做所有的工作,那將由人類來完成?!备ヂ謇锏险f,“而且,我們將如何充當人工智能應用與其他人工智能應用,或是與其他需要連接的系統(tǒng)之間的接口,在這方面,我們需要搞清楚的倫理問題還有很多。如何連接這一切,是完全未知的領(lǐng)域。” 新技術(shù)總是會為犯罪活動提供新的機會,而私人企業(yè)、公共機構(gòu)和執(zhí)法部門的追趕步伐可能非常遲緩。在歐洲刑警組織2016年的《互聯(lián)網(wǎng)有組織犯罪威脅評估報告》中,有一個章節(jié)專門討論了現(xiàn)有的各種網(wǎng)絡犯罪行為,但幾乎沒有提到人工智能。 “很多人都在談論利用機器學習和人工智能來打擊有組織犯罪,但有人在談論有組織犯罪會怎樣使用相同的技術(shù)嗎?”弗洛里迪問道,“如果你在操作系統(tǒng)中發(fā)現(xiàn)了某種漏洞,你能想象有人利用人工智能系統(tǒng)對這一漏洞進行攻擊后,事情會演變成什么樣嗎?據(jù)我所知,只有汽車行業(yè)的人在談論這件事?!?/font> 人們看到了算法在提升計算機安全性方面的潛力,但它同樣有能力去破壞這種安全性。當自動化技術(shù)把這些算法安裝到相同的系統(tǒng)上時,一旦黑客發(fā)動攻擊,他們將不再需要逐一破解每輛汽車上的電腦。 不過,我們在私人領(lǐng)域看到了一些積極的發(fā)展態(tài)勢。企業(yè)越來越把數(shù)據(jù)倫理視為一筆珍貴的資產(chǎn),尤其是在它們從初創(chuàng)公司成長為大型企業(yè)之后。 技術(shù)可以改變倫理,比如避孕藥的出現(xiàn),它在公眾掀起性革命之前,就引發(fā)了這樣一場革命。如果要讓數(shù)據(jù)充分發(fā)揮它所具有的變革性潛力,就必須建立一套倫理規(guī)范,同時還要搭建一個倫理框架來提供保障。新的制度能否落實到位,取決于政府和行業(yè)。 翻譯:何無魚 |
|