pixabay.com Physics World 的這篇文章,探討了人工智能中的種族和性別偏見問題,以及物理學(xué)家們可以如何認(rèn)識(shí)和解決這些問題。 ● ● ● 2011年,在佐治亞理工學(xué)院攻讀本科學(xué)位時(shí),加納裔美國(guó)計(jì)算機(jī)科學(xué)家喬伊·布奧蘭維尼(Joy Buolamwini)發(fā)現(xiàn),機(jī)器人無法陪她玩一把簡(jiǎn)單的躲貓貓游戲——因?yàn)闄C(jī)器無法識(shí)別她黑色的臉龐。2015年,麻省理工學(xué)院媒體實(shí)驗(yàn)室的碩士研究生布奧蘭維尼參加了一個(gè)名為 “Aspire Mirror” 的科學(xué)藝術(shù)項(xiàng)目,在處理面部分析軟件時(shí)也遇到了類似的問題:只有當(dāng)她戴上白色面罩時(shí),軟件才能檢測(cè)到她的臉。 這兩件事只是巧合嗎? 好奇心驅(qū)使布奧蘭維尼去探索這其中的奧秘。她將自己的照片上傳到四個(gè)不同的面部識(shí)別系統(tǒng)中,但結(jié)果都不如人意:要么根本識(shí)別不出是一張人臉,要么就是性別不對(duì)。她把系統(tǒng)的這種偏見稱為 “編碼凝視”(coded gaze)。隨后,她決定對(duì)來自3個(gè)非洲國(guó)家和3個(gè)歐洲國(guó)家的1270名政客進(jìn)行面部測(cè)試,他們有著不同的面部特征、膚色和性別。這一測(cè)試成為了她的碩士論文項(xiàng)目:“性別陰影:商用性別分析中的交叉精度差異”(Gender Shades: Intersectional accuracy disparities in commercial gender classification)(圖1)。布奧蘭維尼發(fā)現(xiàn),由微軟,IBM和Megvii開發(fā)的三種商用面部識(shí)別技術(shù),在識(shí)別面部深色皮膚的女性時(shí)都會(huì)出錯(cuò),識(shí)錯(cuò)率約35%。而在白人男性身上,它們的識(shí)別結(jié)果幾乎完美(99%)[1]。 圖1 精準(zhǔn)度大比較 | 圖源Joy Buolamwini 人們通常認(rèn)為,機(jī)器能做出更明智、更好和更客觀的決定,但這些現(xiàn)存的算法偏見,無疑消除了機(jī)器中立的概念,并且復(fù)制了社會(huì)現(xiàn)有的不平等現(xiàn)象。從黑人被誤標(biāo)記為大猩猩,到谷歌搜索 “黑人女孩” 或 “拉丁女孩” 彈出成人內(nèi)容,再到醫(yī)療設(shè)備對(duì)膚色較深的人而言效果不佳…… 很明顯,機(jī)器算法存在固有的歧視。 “這個(gè)不平等的社會(huì)充斥著種族主義和性別歧視,所以即使計(jì)算機(jī)編程人員心存善念,算法也會(huì)有偏見和歧視?!?來自紐約大學(xué)AI Now研究所的喬伊·利西·蘭金(Joy Lisi Rankin)說道,她是人工智能中性別、種族和權(quán)力研究項(xiàng)目的負(fù)責(zé)人,其著作包括《美國(guó)人民計(jì)算史》( A People’s History of Computing in the United States)[2]?!八鼈冎粫?huì)反映和放大世界上更大的偏見。” 物理學(xué)家越來越多地將人工智能和機(jī)器學(xué)習(xí)應(yīng)用到不同領(lǐng)域,從醫(yī)學(xué)物理到材料學(xué)等等。雖然他們可能認(rèn)為自己的研究只會(huì)應(yīng)用于物理學(xué),但他們的發(fā)現(xiàn)也可以轉(zhuǎn)化到社會(huì)層面。 “作為粒子物理學(xué)家,我們的主要目標(biāo)是開發(fā)工具和算法,以助我們找到超越標(biāo)準(zhǔn)模型的物理學(xué)。但不幸的是,我們沒有停下來思考,沒有料到這些工具和算法將如何在技術(shù)中得到廣泛應(yīng)用,并在社會(huì)中每天被用來進(jìn)一步壓迫邊緣化的個(gè)體,”杰西卡·埃斯基維爾(Jessica Esquivel)說道,他是伊利諾伊州芝加哥費(fèi)米國(guó)家加速器實(shí)驗(yàn)室(Fermilab)的物理學(xué)家和數(shù)據(jù)分析員,正致力于開發(fā)人工智能算法來增強(qiáng)Muon g-2實(shí)驗(yàn)中的束流存儲(chǔ)和優(yōu)化。 更重要的是,物理學(xué)中缺乏多樣性的現(xiàn)狀,不僅會(huì)影響到已完成的工作,也會(huì)影響正在被創(chuàng)建的系統(tǒng)。“性別和種族的失衡問題,無疑是糾正人工智能中一些更廣泛的偏見問題的障礙。” 新澤西州普林斯頓大學(xué)的粒子物理和機(jī)器學(xué)習(xí)研究員薩凡納·泰斯(Savannah Thais)表示。這就是為什么物理學(xué)家需要意識(shí)到他們現(xiàn)有的偏見,更重要的是,作為一個(gè)群體,他們需要捫心自問:自己到底應(yīng)該做什么。 機(jī)器可以成為智能生物,這一想法已經(jīng)存在了幾個(gè)世紀(jì),古希臘和其他文明都有有關(guān)于機(jī)器人的神話。但直到第二次世界大戰(zhàn)之后,科學(xué)家、數(shù)學(xué)家和哲學(xué)家們才開始真正討論創(chuàng)造人工思維的可能性。 1950年,英國(guó)數(shù)學(xué)家阿蘭·圖靈(Alan Turing)提出了一個(gè)著名的問題:機(jī)器是否會(huì)思考?他提出用圖靈測(cè)試(Turing Test)來測(cè)量機(jī)器的智力。六年后,在新罕布什爾州漢諾威市的人工智能達(dá)特茅斯夏季研究項(xiàng)目期間,人工智能的研究領(lǐng)域正式成立?;谌祟愃季S過程可以在計(jì)算機(jī)程序中被定義和復(fù)制的想法,“人工智能”(artificial intelligence)一詞由美國(guó)數(shù)學(xué)家約翰·麥卡錫(John McCarthy)首創(chuàng),取代了以前使用的 “自動(dòng)機(jī)研究”(automata studies)。 雖然上世紀(jì)五六十年代奠定了人工智能和機(jī)器學(xué)習(xí)的基礎(chǔ),但這一領(lǐng)域真正實(shí)現(xiàn)騰飛還是花了一段時(shí)間。“直到過去10年間,強(qiáng)大的計(jì)算能力、標(biāo)記數(shù)據(jù)和高科技公司的財(cái)富才結(jié)合起來,使大規(guī)模的人工智能成為了可能?!?蘭金表示。而且,正如1983年麻省理工學(xué)院《學(xué)術(shù)界平等的障礙:計(jì)算機(jī)科學(xué)領(lǐng)域的女性》報(bào)告所強(qiáng)調(diào)的那樣 [3],盡管美國(guó)黑人和拉丁美裔婦女早在上世紀(jì)70年代就開始討論計(jì)算機(jī)中的歧視和不平等問題,但直到近十年間,有關(guān)計(jì)算機(jī)系統(tǒng)中的偏見問題才得到了更廣泛的討論。 實(shí)際上,自上世紀(jì)40到60年代,女性已經(jīng)成為了英美兩國(guó)計(jì)算機(jī)行業(yè)的核心,正因如此,計(jì)算機(jī)領(lǐng)域?qū)τ谂缘钠姴鸥钊梭@訝。 “計(jì)算機(jī)過去是 '人’,而不是機(jī)器,而且這些'人’大多都是女性?!碧m金表示,“但當(dāng)她們被淘汰且被白人男性取而代之時(shí),這個(gè)領(lǐng)域便發(fā)生了變化?!?正如她說的那樣:“計(jì)算機(jī)行業(yè)從女性化和不受重視變得聲望日盛和更加男性化?!笔聦?shí)上,上世紀(jì)80年代中期,在美國(guó)獲得計(jì)算機(jī)科學(xué)學(xué)位的所有畢業(yè)生中,將近40%是女性;但是到了2010年,這一比例已降至15%。 在科學(xué)、技術(shù)、工程、數(shù)學(xué)和醫(yī)學(xué)領(lǐng)域,計(jì)算機(jī)科學(xué)和物理一樣,從業(yè)者的性別差距都是最大的 [4]。盡管獲得物理學(xué)學(xué)位的女性人數(shù)有所增加,但在美國(guó)授予的所有學(xué)位類型中,女性所占比例僅為20%,黑人的比例則更低。2017年,美國(guó)僅有3%的物理學(xué)本科學(xué)位授予了黑人學(xué)生。在英國(guó)也存在著類似的問題,2018年英國(guó)所有本科生中,女性占了57.5%,但在所有物理學(xué)本科生中,黑人女性只占了1.7%。 這種性別和人種上的分布差異,對(duì)研究的構(gòu)建、進(jìn)行和實(shí)施都產(chǎn)生了嚴(yán)重的影響。蘭金表示,構(gòu)建算法技術(shù)時(shí)缺乏群體多樣性,而新興的技術(shù)又可能會(huì)傷害到婦女、有色人種、殘疾人和LGBTQ群體,這二者之間形成了一個(gè)有害的反饋循環(huán)。一個(gè)現(xiàn)實(shí)的例子就是亞馬遜的招聘算法,這一算法基于歷史的招聘實(shí)踐和申請(qǐng)人數(shù)據(jù),會(huì)首先拒絕女性的工作申請(qǐng)。最后,亞馬遜棄用了這一招聘算法,因?yàn)榧韧恼衅甘穼⑿詣e偏見深深刻進(jìn)了他們的系統(tǒng)中,無法確保招聘公平。 機(jī)器算法偏見中的許多問題在《偏見系統(tǒng)》(Discriminating Systems)這份報(bào)告中得到了解決 [5]?!镀娤到y(tǒng)》是AI Now研究所2019年的一份重要報(bào)告,報(bào)告表明,不應(yīng)將群體多樣性和人工智能的偏見問題分開來考慮,因?yàn)樗鼈兪?“同一問題的兩個(gè)方面”。蘭金補(bǔ)充說,職場(chǎng)性騷擾也與歧視和偏見有關(guān),她指出,據(jù)美國(guó)國(guó)家科學(xué)院、工程院和醫(yī)學(xué)院報(bào)告,科學(xué)領(lǐng)域中半數(shù)以上的女性教職員工都經(jīng)歷過某種形式的性騷擾。 泰斯表示,從多方來看,物理學(xué)中的多種聲音是至關(guān)重要的。她目前正在為歐洲核子研究組織(CERN)的高光度大型強(qiáng)子對(duì)撞機(jī)開發(fā)基于機(jī)器學(xué)習(xí)的加速重建算法?!按蟛糠治锢硌芯咳藛T沒有與受到這些算法影響的其他種族、性別和群體的人群直接接觸的經(jīng)驗(yàn)。” 埃斯基維爾認(rèn)為,正因如此,被邊緣化的科學(xué)家個(gè)體需要參與到算法的開發(fā)中來,以確保他們不會(huì)被偏見所淹沒。 美國(guó)斯坦福大學(xué)人工智能研究員普拉圖莎·卡盧里(Pratyusha Kalluri)也這樣認(rèn)為。她參與創(chuàng)建了 “激進(jìn)人工智能網(wǎng)絡(luò)”(Radical AI Network),該網(wǎng)絡(luò)提倡反壓迫技術(shù),并為那些被人工智能邊緣化的人發(fā)聲??ūR里去年在Nature 上寫道:“是時(shí)候把被邊緣化和受算法影響的群體置于人工智能研究的中心了,他們的需求、知識(shí)和夢(mèng)想應(yīng)該指導(dǎo)技術(shù)的發(fā)展。” [6] 讓我們回到費(fèi)米實(shí)驗(yàn)室。布萊恩·諾德(Brian Nord)是一位宇宙學(xué)家,他利用人工智能來尋找宇宙起源和進(jìn)化的線索。他解釋說:“在多年的觀測(cè)中,望遠(yuǎn)鏡掃描天空,收集包括圖像在內(nèi)的大量復(fù)雜數(shù)據(jù),而我則使用人工智能來分析這些數(shù)據(jù),以了解導(dǎo)致時(shí)空擴(kuò)張加速的暗能量?!?/span> 然而,2016年,他在閱讀了 ProPublica 的一份調(diào)查報(bào)告后意識(shí)到:人工智能可能有害且會(huì)對(duì)黑人產(chǎn)生偏見 [7]。該報(bào)告分析了一個(gè)名為COMPAS的風(fēng)險(xiǎn)評(píng)估軟件,該軟件在美國(guó)法庭上用于預(yù)測(cè)哪些罪犯最有可能再次犯罪,以及決定保釋條件。調(diào)查發(fā)現(xiàn),不論是所犯罪行的嚴(yán)重程度還是再次犯罪的實(shí)際可能性,黑人被貼上高風(fēng)險(xiǎn)標(biāo)簽的可能性幾乎是白人的兩倍。對(duì)此,諾德表示:“我非常擔(dān)心自己在開發(fā)算法時(shí)的'共謀’行為,將來這些算法的應(yīng)用可能會(huì)對(duì)我不利。” 作為黑人,他知道面部識(shí)別技術(shù)對(duì)他這樣的人有偏見,經(jīng)常錯(cuò)認(rèn)黑人,且監(jiān)管不嚴(yán)。 因此,雖然物理學(xué)家可能已經(jīng)開發(fā)出某種人工智能技術(shù)來解決純粹的科學(xué)問題,但在現(xiàn)實(shí)世界中,它的應(yīng)用卻超出了他們的控制范圍——人工智能的使用者可能會(huì)動(dòng)機(jī)不純?!斑@更有可能使我的權(quán)利受到侵犯,剝奪我在群體、社會(huì)和生活各方面的權(quán)利,” 諾德說道。 對(duì)于這些問題,諾德決定不另起爐灶,而是建立一個(gè)由物理學(xué)家和計(jì)算機(jī)科學(xué)家組成的聯(lián)盟,以便在開發(fā)算法時(shí)爭(zhēng)取更多的審查。他指出,向美國(guó)執(zhí)法機(jī)構(gòu)和其他私人機(jī)構(gòu)提供面部識(shí)別設(shè)備的Clearview AI等公司,正在搜集社交媒體數(shù)據(jù),然后在未經(jīng)用戶明確同意的情況下向執(zhí)法部門出售監(jiān)控服務(wù)。他警告說,許多國(guó)家都在利用監(jiān)視技術(shù)對(duì)民眾進(jìn)行廣泛的壓迫,“以數(shù)據(jù)為主導(dǎo)的技術(shù)剝奪了人們的權(quán)利,例如數(shù)據(jù)隱私問題、數(shù)據(jù)和科學(xué)如何被用來侵犯民權(quán)、技術(shù)如何維護(hù)白人至上和監(jiān)視資本主義的歷史等,物理學(xué)家應(yīng)該致力于理解這些權(quán)力結(jié)構(gòu)?!?/span> 為了讓這個(gè)問題引起更廣泛的關(guān)注,諾德、埃斯奎維爾和其他同事給粒子物理學(xué)界寫了一封信。這也是 “雪團(tuán)” 項(xiàng)目(Snowmass)的一部分,“雪團(tuán)” 定期為美國(guó)和美國(guó)之外的粒子物理界的未來發(fā)展樹立科學(xué)遠(yuǎn)景。他們?cè)谛胖杏懻摿?“計(jì)算研究的倫理意義和科學(xué)家的角色”,強(qiáng)調(diào)了無論是作為個(gè)人、還是在各機(jī)構(gòu)和基金會(huì)任職的物理學(xué)家們,都應(yīng)該關(guān)心他們正在構(gòu)建和實(shí)施的算法 [8]。 泰斯還敦促物理學(xué)家們——這些有著深厚技術(shù)知識(shí)的公民們,積極參與到人工智能倫理的治理中來 [9]。她說:“讓物理學(xué)家們意識(shí)到人工智能和機(jī)器學(xué)習(xí)方面的偏見問題非常重要,即使在機(jī)器學(xué)習(xí)的物理學(xué)研究應(yīng)用中通常不會(huì)出現(xiàn)這種情況?!?泰斯解釋說,這樣做的原因之一是,許多物理學(xué)家離開原有領(lǐng)域,到計(jì)算機(jī)軟件、硬件和數(shù)據(jù)科技公司工作。“許多這樣的公司都在使用人工數(shù)據(jù),因此我們必須讓學(xué)生們提前具有責(zé)任意識(shí)。我們不能只教授技術(shù)技能,而忽視更廣泛的社會(huì)背景,因?yàn)樵S多人最終將把這些方法應(yīng)用到物理學(xué)之外。” 對(duì)此,泰斯和埃斯基維爾也都認(rèn)為,物理學(xué)家在理解和管理人工智能方面扮演著重要的角色,因?yàn)樗麄兺仨毷褂卯a(chǎn)出更精確輸出數(shù)據(jù)的方法,來解釋和量化系統(tǒng)的不確定性,然后才能抵消數(shù)據(jù)中的固有偏差。泰斯說:“有了這種更加 '黑匣子’ 化的機(jī)器學(xué)習(xí)算法后,我們真的很想了解它的準(zhǔn)確性,了解它在邊界情況下是如何工作的,以及它為什么在某個(gè)特定的問題上表現(xiàn)最好。而這些都是物理學(xué)家們?cè)瓿蛇^的任務(wù)?!?/span> 另一位利用物理學(xué)來提高人工智能精準(zhǔn)度和可靠性的研究人員,是帕耶爾·達(dá)斯(Payel Das),她是IBM托馬斯·J·沃森研究中心的首席研究員。為了設(shè)計(jì)新的材料和抗生素,她和團(tuán)隊(duì)正在開發(fā)機(jī)器學(xué)習(xí)算法:將從數(shù)據(jù)和物理原理結(jié)合起來,從而使一項(xiàng)新科學(xué)發(fā)現(xiàn)的成功率提高百倍。達(dá)斯說:“我們經(jīng)常借助已有的科學(xué)知識(shí)或其他形式的知識(shí)(例如基于物理學(xué)原理),來增強(qiáng)、指導(dǎo)或驗(yàn)證人工智能模型,以使其系統(tǒng)更耐用、高效、易于解釋和可靠。” 她對(duì)此做了進(jìn)一步解釋,即“通過使用物理學(xué)驅(qū)動(dòng)的學(xué)習(xí),人們可以在準(zhǔn)確性、可靠性和歸納偏差等方面對(duì)人工智能模型進(jìn)行交叉檢查?!?/span> 算法決策工具可能是為科學(xué)研究而開發(fā)的,但被用于商業(yè)監(jiān)視,在這種情況下,數(shù)據(jù)中任何微小的偏差都會(huì)產(chǎn)生現(xiàn)實(shí)后果。 去年,數(shù)據(jù)倫理與創(chuàng)新中心(Centre for Data Ethics and Innovation)發(fā)表了一篇關(guān)于算法決策偏見的評(píng)論 [12]。該中心屬于英國(guó)政府的數(shù)據(jù)驅(qū)動(dòng)和技術(shù)獨(dú)立咨詢機(jī)構(gòu)。研究發(fā)現(xiàn),過去幾年,在招聘、金融服務(wù)、警務(wù)和地方政府四個(gè)部門,算法決策有了顯著增長(zhǎng),并發(fā)現(xiàn)了算法偏見存在的明確證據(jù)。報(bào)告呼吁各組織積極利用數(shù)據(jù)來識(shí)別和減輕算法偏見,并確保了解其工具的功能和局限。來自愛丁堡大學(xué)的人工智能教授、貝葉斯中心(Bayes Centre)主任邁克爾·羅瓦佐斯(Michael Rovatsos)也表達(dá)了這種看法:“要想真正獲取數(shù)據(jù)或算法是非常困難的”,他補(bǔ)充說,政府應(yīng)要求公司進(jìn)行審計(jì),并應(yīng)該要求其在現(xiàn)實(shí)世界中應(yīng)用的系統(tǒng)保持透明。 就像布奧蘭維尼一樣,一些研究人員正試圖利用他們?cè)谌斯ぶ悄芊矫娴目茖W(xué)經(jīng)驗(yàn),從外部揭示商業(yè)算法中的偏見。其中包括數(shù)學(xué)家凱西·奧尼爾(Cathy O'Neil),她在2016年撰寫了《數(shù)學(xué)殺傷性武器》(Weapons of Math Destruction)一書,講述了她在數(shù)據(jù)偏見方面的工作。2018年,她成立了一家咨詢公司,并與公司私下合作,審核他們的算法。如今,布奧蘭維尼還在繼續(xù)她的工作,通過非盈利的算法正義聯(lián)盟(Algorithmic Justice League)創(chuàng)建更公平和負(fù)責(zé)任的技術(shù),這是她于2016年成立的一個(gè)跨學(xué)科研究機(jī)構(gòu),旨在了解人工智能技術(shù)的社會(huì)意義。 圖3 鏡子 | 圖源TJ Rak 計(jì)算機(jī)科學(xué)家喬伊·布奧蘭維尼(Joy Buolamwini)通過一些面部分析演示測(cè)試了自己的這張照片。微軟和Face++沒有檢測(cè)到她的臉,而IBM和Kairos搞錯(cuò)了她的性別。 2018年,她與計(jì)算機(jī)科學(xué)家提姆尼特·格布魯(格布魯是 “Black in AI” 的創(chuàng)始人之一)共同發(fā)表了《性別陰影》(Gender Shades)研究報(bào)告,研究結(jié)果后被發(fā)送給了涉及到的公司。一年后,他們又進(jìn)行了一項(xiàng)后續(xù)研究以重新審核,并新增了兩家公司:亞馬遜和凱羅斯(Kairos) [13]。在計(jì)算機(jī)科學(xué)家、現(xiàn)任Mozilla基金會(huì)研究員黛博拉·拉吉的帶領(lǐng)下,該研究的后續(xù)調(diào)查發(fā)現(xiàn),這兩家公司存在巨大的精度錯(cuò)誤——亞馬遜的面部識(shí)別軟件甚至無法對(duì)米歇爾·奧巴馬(Michelle Obama)臉進(jìn)行正確分類,但最初的三家公司識(shí)別精度已經(jīng)有了明顯改善,這表明他們的數(shù)據(jù)集是用更多樣化的圖像進(jìn)行訓(xùn)練的。 這兩項(xiàng)研究對(duì)現(xiàn)實(shí)世界產(chǎn)生了深遠(yuǎn)的影響:促成了兩項(xiàng)美國(guó)聯(lián)邦法案:《算法責(zé)任法案》(Algorithmic Accountability Act)和《禁止生物特征住房壁壘法案》(No Biometric Barriers Act),以及紐約和馬薩諸塞州的州法案。這項(xiàng)研究還說服了微軟、IBM和亞馬遜停止為警方辦案提供面部識(shí)別技術(shù)。如今,她正在繼續(xù)算法評(píng)估的工作,并在去年與谷歌的同事一起開發(fā)了一個(gè)用于人工智能準(zhǔn)確度的算法審計(jì)框架。“內(nèi)部審計(jì)至關(guān)重要,因?yàn)樗试S在將系統(tǒng)被部署到世界各地之前對(duì)其進(jìn)行更改,” 她補(bǔ)充說,人工智能有時(shí)所涉及的偏見可能對(duì)特定人群有害,“因此,確定在這些決策中最易受傷害的群體,并對(duì)人工智能領(lǐng)域發(fā)展過程中可能引入偏見的時(shí)刻進(jìn)行審查是很重要的?!?/span> 2019年,AI Now研究所發(fā)布的一份詳細(xì)報(bào)告 [14],為有興趣負(fù)責(zé)人地使用算法決策工具的公共機(jī)構(gòu)提供了一個(gè)架構(gòu),并在隨后發(fā)布了算法問責(zé)政策工具包。該報(bào)告呼吁,人工智能和機(jī)器學(xué)習(xí)領(lǐng)域的研究人員應(yīng)該了解自己正在構(gòu)建什么,還要考慮從事領(lǐng)域的潛在風(fēng)險(xiǎn)和危害,并更好地記錄模型和數(shù)據(jù)來源。 埃斯基韋爾指出,物理學(xué)家了解其數(shù)據(jù)來源的重要性(尤其是用于訓(xùn)練機(jī)器學(xué)習(xí)系統(tǒng)的數(shù)據(jù)集),“許多用于粒子物理數(shù)據(jù)的算法都是經(jīng)過微調(diào)后的架構(gòu),由人工智能專家開發(fā),并經(jīng)過行業(yè)標(biāo)準(zhǔn)數(shù)據(jù)集訓(xùn)練。然而,這些數(shù)據(jù)后被證明充斥著種族主義、不公平對(duì)待和性別歧視。” 她以麻省理工學(xué)院為例:麻省理工學(xué)院刪除了曾廣泛使用的、擁有8000萬張圖像的人工智能數(shù)據(jù)集,因?yàn)檫@些圖像被以攻擊性的、種族主義的和厭女的方式貼上標(biāo)簽 [15]。 格布魯和同事最近還強(qiáng)調(diào)了大型數(shù)據(jù)集現(xiàn)存的一些問題,例如 Common Crawl ——一個(gè)網(wǎng)頁爬蟲數(shù)據(jù)的開放式儲(chǔ)存,其中充滿了白人至上主義、年齡歧視和厭女主義等觀點(diǎn)的過度代表 [16],而她最近也因?yàn)檫@篇文章被谷歌人工智能的倫理團(tuán)隊(duì)解雇?;谶@些現(xiàn)實(shí)情況,埃斯基韋爾清楚地表明:學(xué)術(shù)界 “有機(jī)會(huì)成為開發(fā)這些工具的公立第三方”。 在2019年的報(bào)告中, AI Now 研究所還建議對(duì)人工智能偏見領(lǐng)域的研究應(yīng)不止于技術(shù)修正?!拔覀儾粌H需要改變算法或系統(tǒng),還需要改變行業(yè)制度和社會(huì)結(jié)構(gòu),” 蘭金解釋說。她認(rèn)為,要想監(jiān)管、消除或盡量減少人工智能算法中的偏見和歧視,就必須采取 “大規(guī)模的集體行動(dòng)”,讓自然科學(xué)界以外的人參與進(jìn)來也會(huì)對(duì)此有所裨益。 諾德也認(rèn)為,物理學(xué)家需要與其他學(xué)科的科學(xué)家及社會(huì)科學(xué)家、倫理學(xué)家們合作。 “不幸的是,就這些花費(fèi)了大量時(shí)間和精力進(jìn)行文獻(xiàn)和群體研究的各領(lǐng)域而言,我沒有看到物理學(xué)家或計(jì)算機(jī)科學(xué)家們充分參與進(jìn)來?!?他指出,“幾乎每隔幾周,就會(huì)有一個(gè)新的基于機(jī)器學(xué)習(xí)的應(yīng)用程序出現(xiàn),但它們?cè)愀?、有害、毫無意義,甚至試圖去完成一些不可能和不道德的事情?!?/strong>例如,德克薩斯大學(xué)奧斯汀分校最近才停止使用一個(gè)機(jī)器學(xué)習(xí)系統(tǒng)預(yù)測(cè)研究生院錄取學(xué)生的可能性,該系統(tǒng)的數(shù)據(jù)基于此前的錄取周期,因此會(huì)產(chǎn)生算法上的偏見。對(duì)此,諾德問道:“為什么我們要在一個(gè)必然需要人文主義的地方尋求這種充斥著技術(shù)官僚主義的解決方案?” 對(duì)于算法偏見,泰斯堅(jiān)持認(rèn)為,物理學(xué)家必須厘清這些偏見問題的現(xiàn)狀,并了解其他人為緩解這些偏見而采取的方法?!拔覀儽仨殞⑦@些對(duì)話納入圍繞機(jī)器學(xué)習(xí)和人工智能的所有討論中?!?她希望物理學(xué)家們可以參加相關(guān)的會(huì)議、研討會(huì)或演講,“這項(xiàng)技術(shù)深刻影響著我們生活的方方面面,因此,不把相關(guān)工作放在更廣泛的社會(huì)背景下是不負(fù)責(zé)任的?!?/span> 對(duì)此,諾德的思考更加清晰:“物理學(xué)家們?cè)谧詥柺欠?'能夠’ 構(gòu)建或施行某些人工智能技術(shù)之前,應(yīng)該先問自己是否 '應(yīng)該’?!?nbsp;他補(bǔ)充表示,將來也有可能會(huì)停止使用現(xiàn)行的一些有害技術(shù),“使用這些技術(shù)與否,即是個(gè)體也是社會(huì)的選擇?!?nbsp;
https:///a/fighting-algorithmic-bias-in-artificial-intelligence/ 參考資料(上下滑動(dòng)可瀏覽) 1. http://proceedings./v81/buolamwini18a.html 2. https://www.hup./catalog.php?isbn=9780674970977 3. https://homes.cs./~lazowska/mit/ 4. https://journals./plosbiology/article?id=10.1371/journal.pbio.2004956 5. https:///discriminatingsystems.pdf 6. https://www./articles/d41586-020-02003-2 7. https://www./article/machine-bias-risk-assessments-in-criminal-sentencing 8. https://www./docs/files/summaries/CommF/SNOWMASS21-CommF6_CommF3-CompF3_CompF6_brian_nord-054.pdf 9. https://physics./articles/v13/107 10. https:///google-the-giant/2020/07/23/google-advertising-keywords-black-girls 11. http:///science-nature-race/amy-moran-thomas-how-popular-medical-device-encodes-racial-bias 12. https://www./government/publications/cdei-publishes-review-into-bias-in-algorithmic-decision-making 13. https://dl./doi/proceedings/10.1145/3306618?tocHeading=heading12 14. https:///reports.html 15. https:///mit-takes-down-popular-ai-dataset-due-to-racist-misogy-1844244206 16. https://dl./doi/proceedings/10.1145/3442188 ▲ 本文為Physics World 專欄的第42篇文章。 |
|