乡下人产国偷v产偷v自拍,国产午夜片在线观看,婷婷成人亚洲综合国产麻豆,久久综合给合久久狠狠狠9

  • <output id="e9wm2"></output>
    <s id="e9wm2"><nobr id="e9wm2"><ins id="e9wm2"></ins></nobr></s>

    • 分享

      這項看臉的黑科技被世人罵慘。。。

       xdd響當當 2017-09-28

        其實呢,這真的是一個“看臉”的世界。。。

        很早以前,達爾文就提出了人類因臉而迷人的進化說明。

        也就是說,人在非常害怕或者高興時的狀態(tài),都會通過面部表達出來。在語言誕生前,臉就成了我們祖先交流溝通和識別身份一個非常重要的工具。

        

        今天,人臉的表情除了人類自己能夠識別出來以外,機器也能讀取當中許多暗藏的信息。并且,“刷臉”也開始被應用于衣食住行各個場景。

        行:百度已經(jīng)與首都機場簽署了戰(zhàn)略合作協(xié)議——人臉閘機將入駐機器運控中心進行測試。

        這樣一來,以后登記排隊的速度會大大加快,而且,即使沒帶身份證和登機牌,也不用擔心錯過飛機啦。

        

        食:支付寶在杭州萬象城肯德基餐廳開啟了“刷臉支付”。

        只要在自助點餐機上選好餐,進入支付頁面,就能選擇“支付寶刷臉付”,進行人臉識別,前后只需要花費1~2秒的時間。

        接著,再輸入與賬號綁定的手機號,確認后即可支付。支付過程不到10秒。

        

        識:行人臉識別技術(shù)還能幫助尋找拐賣兒童,被拐孩子經(jīng)過多年的成長,可能連親媽都認不出來了。

        但人工智能卻能通過數(shù)據(jù)比對幫助失去孩子的父母找到親人。

        

        除了應用于身份確認和日常的支付行為外,人臉識別技術(shù)最近又有幾項頗受爭議的技術(shù)研究。

        其中一項,就是斯坦福大學商學院教授 Michal Kosinski在《個性與社會心理學雜志》上發(fā)表的“深度神經(jīng)網(wǎng)絡能夠比人類更精確地從面部表情中檢測出性取向”。

        這也就是說,人工智能可以被用來準確地測試某人的性取向。

        

        我們先來看兩組照片,你能看出什么端倪嗎?

        

        左側(cè)為異性戀面部照片聚合形成的圖像,右側(cè)則是同性戀。

        老實說,有沒有覺得同性戀的顏值更高?

        這是AI的成績:僅憑一張照片區(qū)分直男與同性戀的準確率高達81%,對女性的性取向判斷準確率為71%。

        人類對性取向的敏銳程度就差得多:男女同性戀的判斷準確率分別僅為61%和54%。

        此外,對于人工智能來說,如果能看過同一個人的五張照片,那么計算機對男女性取向的判斷準確率還將進一步提高至91%和83%。

        

        性取向只是個人的選擇,而且也是隱私。

        如果我們儲存在政府數(shù)據(jù)庫和社交網(wǎng)絡上的十億公共數(shù)據(jù),沒有經(jīng)過允許就被拿來進行性取向的識別怎么辦?

        

        細思恐極,這項技術(shù)有朝一日可能會徹底改變隱私、公平和信任這些我們視為常規(guī)的概念。

        那么人們又是如何看待這個研究呢?

        LGBT權(quán)利團體首先跳出來強烈反對,他們認為這項研究存在缺陷,反對同性戀的政府可以使用這種軟件來對付同性戀者并迫害他們。

        我們最不愿意看到的是通過流血事件來引發(fā)改革。

        比如,惡霸可能會用一種算法識別一位小青年的同性戀傾向后以教法教規(guī)的名義對他進行迫害,最終導致同性戀青年遭遇不幸。

        一些信仰伊斯蘭教的國家甚至將同性戀視為應受懲罰的犯罪行為。一經(jīng)發(fā)現(xiàn)就會被處以“石刑”(一種鈍擊致死的死刑執(zhí)行方式)。

        

        全世界,目前至少有 10 個國家對同性戀判處死刑,而且,在74個國家里,同性戀至今仍然是非法的。

        

        此外,將人臉識別用于識別“性取向”還有可能引發(fā)復雜的道德問題。

        技術(shù)要是不被限制使用,就會出現(xiàn)濫用人工智能以攻擊弱勢群體的事情。

        畢竟人類除了食物鏈在頂端,鄙視鏈的種類也是其他物種無法企及的。什么發(fā)型啊、口音、衣著打扮、工種啊,甚至是殘疾都可以成為嘲笑的理由。

        人性的弱點,從來都在伺機而動。

        

        眼下,政府和企業(yè)已經(jīng)擁有這些技術(shù)能力,但是這些保護措施與人工智能的發(fā)展沒有同步。

        在努力推動隱私保護和監(jiān)管方面的保護措施的同時,其他可能存在的危險也要加以防范。

        

        Kosinski教授還說,面部識別技術(shù)也可以用來判斷智商的高低。如果以后學校通過面部識別來招生,那么將會引發(fā)了一系列倫理問題。

        本來教育資源就不公平了,這種技術(shù)的發(fā)展更會加劇不公平的現(xiàn)象發(fā)生。

        此外,還包括公司招聘。如果HR就可以按照自己偏好選擇求職者,人臉識別則可以使這種偏見變得常態(tài)化。

        這樣一來,公司就有可能根據(jù)種族、智力和性取向等特征過濾掉部分求職者。

        

        除了隱私受到侵蝕,我們還會遭受所謂精準投放廣告的騷擾,比如Facebook可以向去過車行的顧客投遞汽車領(lǐng)域的廣告。

        

        面部表情包含了多種因素的可觀測指標,老祖宗有句話叫做相由心生。

        一些江湖術(shù)士也可以通過面相精確算出你的生活、感情史,甚至你的未來發(fā)展等。

        然鵝,也有研究者正試圖利用數(shù)據(jù)分析推翻這門古老的 “科學”。

        

        上海交大的武筱林教授和他的博士生張熙近期完成了“基于面部圖像的自動犯罪概率推斷”的研究。

        過程中,他們發(fā)現(xiàn),通過學習,機器可以通過照片分辨出誰是罪犯,誰是守法公民,識別準確率在86%以上。

        

        圖示為研究使用的照片樣本

        a組為罪犯,b組為非罪犯

        

        本站是提供個人知識管理的網(wǎng)絡存儲空間,所有內(nèi)容均由用戶發(fā)布,不代表本站觀點。請注意甄別內(nèi)容中的聯(lián)系方式、誘導購買等信息,謹防詐騙。如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請點擊一鍵舉報。
        轉(zhuǎn)藏 分享 獻花(0

        0條評論

        發(fā)表

        請遵守用戶 評論公約

        類似文章 更多