乡下人产国偷v产偷v自拍,国产午夜片在线观看,婷婷成人亚洲综合国产麻豆,久久综合给合久久狠狠狠9

  • <output id="e9wm2"></output>
    <s id="e9wm2"><nobr id="e9wm2"><ins id="e9wm2"></ins></nobr></s>

    • 分享

      人類本性都有傲慢與偏見,那么人工智能會有偏見嗎?

       歐能歐陽娜娜 2019-06-25

      人與人之間總是有或多或少的刻板印象,如民族、膚色、教育背景、性別等。在人們的心目中,地方團體常常是陳詞濫調(diào)。例如,女性應該溫和聽話,工程技術(shù)人員大多是男性,白人比黑人有更高的智力等等。每個人都是獨立的個體。人們對他人有不同的態(tài)度和看法是正常的。出乎意料的是,人工智能也有“刻板印象”。

      最近,Facebook的人工智能實驗室進行了一項有趣的新研究。他們發(fā)現(xiàn),人工智能偏見不僅存在于國家內(nèi)部,也存在于國家之間。

      研究人員測試了五種流行的現(xiàn)成的對象識別算法,包括Microsoft Azure、Clarifai、Google Cloud Vision、Amazon Rekognition和IBM Watson,以了解每個程序的效果。用于測試的數(shù)據(jù)集來自不同國家的家庭,包括窮人和窮人,包括117個類別,從鞋子、肥皂到沙發(fā)。

      在這項研究中,研究人員發(fā)現(xiàn),當被要求識別低收入家庭時,目標識別算法的準確度比高收入家庭低10%。隨著月收入的增加,誤差也會增加。特別是對于谷歌、微軟和亞馬遜來說,低收入家庭識別算法的準確性很低。

      與索馬里和布基納法索相比,該算法在識別美國產(chǎn)品方面的準確度提高了15-20%。

      這種現(xiàn)象有很多原因。最常見的原因是,在創(chuàng)建算法時,通常會受到相關(guān)工程師的生活和背景的影響。這些人大多來自高收入階層的精英階層,他們的思想和觀念都是基于他們的思想和觀念,人工智能算法也是基于他們的思想和觀念。

      人工智能(ai)具有強大的計算能力,在算法的基礎(chǔ)上,可以方便地獲取海量數(shù)據(jù)和識別信息。然而,令人擔憂的是,它的偏見不僅在物體的鑒定上有偏見,而且在種族和性別歧視上也有偏見。

      研究人員測試了微軟、IBM和Facebook的人臉識別功能。他們發(fā)現(xiàn)白人男性的正確率高于99%,而黑人女性的錯誤率為47%。

      亞馬遜開發(fā)了一個人工智能程序來阻止簡歷的選擇,這也顯示了對女性的歧視。選擇簡歷后,男性比女性多。包含女性角色的簡歷的權(quán)重將會降低,甚至降低了兩所女子學院的研究生評級。可見人工智能也是有自我選擇,和不可磨滅的“歧視”。不過在另一方面人工智能又顯得極為平等,比如最近大火的人工智能機器人,它就完全可以做到對每一個人的態(tài)度都是平等的,不會因為你有錢你的性別就改變對你的態(tài)度,他會像人一樣溫和做到有問必答,及時遭受到批評也會虛心接受。電話機器人好不好用?這么多企業(yè)瘋搶的場面也回答了這個問題。

        本站是提供個人知識管理的網(wǎng)絡存儲空間,所有內(nèi)容均由用戶發(fā)布,不代表本站觀點。請注意甄別內(nèi)容中的聯(lián)系方式、誘導購買等信息,謹防詐騙。如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請點擊一鍵舉報。
        轉(zhuǎn)藏 分享 獻花(0

        0條評論

        發(fā)表

        請遵守用戶 評論公約

        類似文章 更多