乡下人产国偷v产偷v自拍,国产午夜片在线观看,婷婷成人亚洲综合国产麻豆,久久综合给合久久狠狠狠9

  • <output id="e9wm2"></output>
    <s id="e9wm2"><nobr id="e9wm2"><ins id="e9wm2"></ins></nobr></s>

    • 分享

      第一批智能AI,已經(jīng)學(xué)會性騷擾了

       她刊 2024-05-02 發(fā)布于山東

      男性機(jī)器人會性騷擾?

      女性機(jī)器人可以模擬性高潮?

      Chat GPT 性別歧視?

      谷歌僅30%為女性員工?

      原來,自詡先進(jìn)的科技業(yè),仍然深陷最古老的性別規(guī)訓(xùn)之中。

      人形機(jī)器人的“進(jìn)化”

      現(xiàn)在的機(jī)器人,已經(jīng)進(jìn)化到會性騷擾了?

      前段時(shí)間,沙特阿拉伯制作的首個(gè)男性機(jī)器人“穆罕默德”,在一場媒體活動中,被指控“騷擾”女記者。

      當(dāng)時(shí)他突然伸手,試圖觸摸一位女記者的臀部。

      女記者立馬轉(zhuǎn)過身來,打斷了他的動作。

      沙特機(jī)器人“性騷擾”女記者

      這段視頻在網(wǎng)上瘋傳。

      制作公司出來回應(yīng),稱穆罕默德的行為是“完全自主的”,并且“沒有偏離預(yù)期行為”。

      該公司還補(bǔ)充說,他們已通知所有與會者,包括記者,在“演示期間要與機(jī)器人保持安全距離”。

      聽起來反倒更令人毛骨悚然了。

      “機(jī)器人性騷擾”事件一方面引發(fā)了很多人的擔(dān)憂,因?yàn)檫@意味性別歧視已經(jīng)被寫入了人工智能的數(shù)據(jù)庫。

      另一方面,大家都產(chǎn)生了一個(gè)相同的困惑:

      機(jī)器人為什么要有性別?

      世界上第一個(gè)機(jī)器人公民“索菲亞”

      這本身是個(gè)很有爭議的問題。

      一些研究者認(rèn)為給機(jī)器人賦予性別,可以使他們更具人類特征。

      對機(jī)器人制造商來說,性別化的機(jī)器人一般更好賣,因?yàn)樗菀着c消費(fèi)者建立聯(lián)系。

      換句話說,機(jī)器人越像人類,就越受歡迎。當(dāng)然相似度也存在一個(gè)臨界點(diǎn),一旦超過這個(gè)點(diǎn),它會讓人感覺恐懼。

      這就是所謂的“恐怖谷理論”,1970年由日本機(jī)器人專家森昌弘提出。

      恐怖谷理論

      而另一部分研究者則相信機(jī)器人性別化弊大于利。

      理由是容易導(dǎo)致性別刻板印象。

      事實(shí)上,在現(xiàn)有人形機(jī)器人的創(chuàng)造中,性別刻板印象問題尤其突出。

      大量機(jī)器人延續(xù)了人類的性別分工。

      比如進(jìn)行舉重、體力勞動之類的機(jī)器人,總是男性機(jī)器人。

      而女性機(jī)器人一般擔(dān)任服務(wù)類工作,比如接待、清潔打掃、護(hù)理等。

      以日本為例,作為最愛研發(fā)人形機(jī)器人的國家之一,日本人形機(jī)器人可以說基本復(fù)刻了日本社會傳統(tǒng)的性別規(guī)范。

      2014年,《日本人工智能學(xué)會》雜志曾引發(fā)過一場爭議。

      原因是其封面畫著一位女性機(jī)器人,她拿著掃帚,看起來就像是正在做家務(wù)的家庭主婦。

      當(dāng)時(shí)有人質(zhì)疑性別刻板印象太明顯,鬧到雜志出來道歉。

      但這并不妨礙性別偏見在日本機(jī)器人身上繼續(xù)復(fù)現(xiàn)。

      2015年,日本一家酒店前臺使用機(jī)器人,當(dāng)然,全部是女性機(jī)器人。

      日本酒店的女性機(jī)器人

      同年,日本仿生機(jī)器人ERICA橫空出世。

      她由日本“機(jī)器人之父”石黑浩團(tuán)隊(duì)研發(fā),能和人自如對話,并且具有表情反應(yīng),被認(rèn)為是當(dāng)時(shí)“最接近人類的機(jī)器人”。

      再看看ERICA的性別特征,她身高167CM,23歲,身材勻稱,五官精致完美,原型來自30位選美冠軍的照片。

      ERICA與她的創(chuàng)造者石黑浩

      在展會上亮相時(shí),她穿著連衣裙,據(jù)說湊近還能聞到香水味。

      由于ERICA鮮明的女性氣質(zhì),她被很多媒體誤讀為“妻子型機(jī)器人”。

      聲稱她“除了生孩子,什么都能做”。

      甚至還有自媒體造謠其“售價(jià)10萬,上市一小時(shí)遭瘋搶”。

      圖源:網(wǎng)絡(luò)

      但事實(shí)上,ERICA造價(jià)高昂,功能僅限對話交流,無法獨(dú)立行走,更無法下廚做家務(wù),完全不是為宅男設(shè)計(jì)的“妻子”玩具。

      可見,機(jī)器人一旦被賦予性別,即便其設(shè)計(jì)本身并不服務(wù)于傳統(tǒng)的性別敘事,但“她”大概率還是無法擺脫性別刻板印象,無法擺脫一廂情愿的男性幻想。

      另一類充斥刻板印象的機(jī)器人,就是性愛機(jī)器人。

      2010年,“世界上第一個(gè)性愛機(jī)器人”Roxxxy 誕生,性別依然為女。

      性愛機(jī)器人Roxxxy

      Roxxxy可以對身體接觸做出反應(yīng),包括模擬性高潮。

      性愛機(jī)器人的發(fā)明,引發(fā)了大量倫理爭議。

      一方面這些機(jī)器人通常有著夸張的女性特征,甚至有些看起來像小女孩,人們擔(dān)心會加劇女性物化與性化。

      另一方面,制造沒有“性同意”能力的性愛機(jī)器人,也被很多學(xué)者認(rèn)為這是“放縱強(qiáng)奸幻想并促進(jìn)強(qiáng)奸文化”。

      想象賽博女人

      其實(shí)早在機(jī)器人被制造出來之前,人們對機(jī)器人的想象就已充斥各類文本。

      當(dāng)然大部分想象總是賦予機(jī)器人性別特征,尤其是女性特征。

      拿電影來說,第一個(gè)登上銀幕的機(jī)器人,就是一位女性機(jī)器人。

      圖源:《大都會》

      她出現(xiàn)在1927年德國導(dǎo)演弗里茨·朗的科幻電影《大都會》中。

      制造她的人,是一位男性科學(xué)狂人,他將自己夢中情人瑪麗亞的臉,移植給一具金屬制成的女性身體。

      于是機(jī)器人“瑪麗亞”正式登場。

      圖源:《大都會》

      人類女性瑪麗亞純真善良圣潔,機(jī)器人瑪麗亞是她的反面。不僅性感妖嬈放蕩,而且相當(dāng)危險(xiǎn)。

      她蠱惑眾人,煽動暴亂,最終被燒死在火刑柱上。

      仿佛中世紀(jì)的女巫。

      學(xué)者許森指出,“當(dāng)機(jī)器開始被視為惡魔般的、難以解釋的威脅,混亂與毀滅的征兆……作家們就開始把類人機(jī)器人想象成女性?!?/p>

      一個(gè)投射男性欲望的女人,一個(gè)讓男人深感恐懼的女人。

      這便是人工智能在電影中最原始的形態(tài)。

      而它在后來的許多電影中都有延續(xù)發(fā)展。

      比如電影《她》和《機(jī)械姬》。

      其中的女性機(jī)器人同樣性感,同樣危險(xiǎn)。

      電影《她》中,男主西奧多和Ai薩曼莎日久生情,他以為“她”是獨(dú)屬于自己的完美情人,結(jié)果卻發(fā)現(xiàn)薩曼莎同時(shí)與8316個(gè)人交談,還和其中641人陷入熱戀。

      圖源:《她》

      雖然片中的Ai女主沒有實(shí)體,但她擁有斯嘉麗·約翰遜的性感聲音。

      《機(jī)械姬》中的機(jī)器人伊娃,則利用男人對自己的感情,最終反殺創(chuàng)造和控制她的男性造物者,逃出生天。

      圖源:《機(jī)械姬》

      男人愛上女性機(jī)器人,卻遭到背叛的母題,幾十年來被反復(fù)書寫。

      你會發(fā)現(xiàn),這些影片本質(zhì)上討論的并不是機(jī)器人的問題,而是男人和女人的問題。

      如《今日簡史》作者尤瓦爾·赫拉利所說,它反映的不是人類對機(jī)器人的恐懼,而是男性對聰明女性的恐懼。

      除了危險(xiǎn)的完美情人,另一分配給女性機(jī)器人的角色,就是完美情人。

      性感尤物+賽博版田螺姑娘。

      美麗溫柔順從且全能。

      典型例子就是《銀翼殺手2049》中的AI女友Joi。

      上得廳堂下得廚房,百分百情緒價(jià)值,唯一不足就是看得見摸不著。

      但為了和男主親密接觸,Joi甚至可以投影到真實(shí)女性身體,以她人的身體和男主發(fā)生關(guān)系。

      這類女性機(jī)器人,可以說完全作為男性欲望對象而存在。

      她們滿足的,也只有男人的幻想。

      圖源:《銀翼殺手2049》

      1985年,美國著名學(xué)者唐娜·哈拉維曾發(fā)表重要的《賽博格宣言》,疾呼“寧做賽博格,不做女神”。

      她認(rèn)為賽博格能摧毀一切二元對立,顛覆性別界限,反抗父權(quán)。

      但不管是從現(xiàn)實(shí),還是從文藝想象來看,作為機(jī)器的女性形象,仍在物化和性化中苦苦掙扎。

      圖源:《洗腦影像:性、鏡頭和權(quán)力》

      科技領(lǐng)域的性別歧視

      科技有性別歧視嗎?

      Tabi Jackson Gee和Freya Rose在《女性主義有什么用》中,斬釘截鐵地回答——

      有。

      “因?yàn)樗怯蓭е逃衅姷哪腥撕团耍ㄖ饕悄腥耍﹦?chuàng)造的?!?/strong>

      科技產(chǎn)業(yè)曾是堅(jiān)固的男性陣營,硅谷曾是臭名昭著的厭女天堂。

      《看不見的女性》點(diǎn)明:

      「在科技行業(yè),女性只占雇員的四分之一,占高管的11%;而美國一半以上的本科學(xué)位、一半的化學(xué)本科學(xué)位和近一半的數(shù)學(xué)本科學(xué)位都是由女性獲得的。超過40%的女性在科技公司工作10年后會離開,而男性只有17%?!?/p>

      到了元宇宙崛起,AI爆發(fā)、科技改變生活的2024年。

      女性處境有變更好嗎?

      很遺憾,絕大多數(shù)科技公司中,女性員工仍然勞動力中占不到30%,如果限定在純技術(shù)崗位,那么比例還要更低。

      2014年,Google公布員工性別比,女性占總勞動力的不到1/3。十年間企業(yè)瘋狂擴(kuò)張,員工人數(shù)大幅上漲。

      但性別比僅上漲了4%。

      科技界的性別歧視,難以撼動,進(jìn)步微弱。

      谷歌員工數(shù)趨勢;谷歌性別比趨勢。圖源:Statista

      物質(zhì)世界充斥著不公。

      建立在現(xiàn)實(shí)之上的造物,也呈現(xiàn)鏡像般的模擬。

      除了能直觀呈現(xiàn)性別刻板印象的人形機(jī)器人,還有被很多實(shí)際應(yīng)用的隱形偏見。

      在AI圖像領(lǐng)域,人們對chat GPT試驗(yàn)發(fā)現(xiàn):

      以“董事長”“科學(xué)家”等關(guān)鍵詞生成圖片時(shí),出現(xiàn)的幾乎全是男性。

      而護(hù)士、老師等詞語,生成的大多是女性。

      《How artificial intelligence reinforces gender bias》;FRANCE 24

      谷歌翻譯也存在著類似問題,當(dāng)網(wǎng)友以不具備性別指向的語言進(jìn)行翻譯時(shí)——

      “ta是醫(yī)生”被翻譯為“他”。

      “ta是護(hù)士”則自動被判斷為“她”。

      這么說來,ai在歧視女性方面確實(shí)很智能。

      生活中,人們使用的語音導(dǎo)航是女性的聲音,電子設(shè)備上的智能助手皆為女性的人設(shè)。

      面對“你是個(gè)蕩婦”的辱罵,蘋果公司曾為siri設(shè)置“如果我能,我會臉紅”這樣的回答。

      “她們”是百依百順的服務(wù)者、人造的田螺姑娘,模糊著現(xiàn)實(shí)與賽博的界限。

      性別的操演不止如此。

      亞馬遜的招聘系統(tǒng)曾挑選出女性的簡歷,打上更低的評分。

      圖源:Reuters

      設(shè)定為19歲女孩的微軟聊天助手Tay,被厭女、右傾用戶惡意灌輸資料,于是學(xué)會了發(fā)布恐怖主義、性別歧視言論。上線一天就被緊急下架。

      圖源:Twitter

      2023年,經(jīng)過上百張照片測試,衛(wèi)報(bào)記者發(fā)現(xiàn),AI會認(rèn)為女性的裸露照片比男性更具備性暗示。

      僅僅孕婦露出肚子,也被認(rèn)定含有色情內(nèi)容。而光膀子的男性,卻不被識別出風(fēng)險(xiǎn)。

      負(fù)責(zé)圖片識別的AI,具備人類一般的雙重標(biāo)準(zhǔn)。如果投入使用,女性的空間會更加狹窄。

      圖源:The Guardian

      遺憾的是,人們本對科技有著積極的想象。

      1994年英國哲學(xué)家Sadie Plant創(chuàng)造了“網(wǎng)絡(luò)女權(quán)主義”一詞。后來Donna Haraway完善 理論,認(rèn)為生化電子人能解決人類的性別傾軋。

      人工智能被賦予了“技術(shù)中立”的期待。

      但在巴蒂亞·弗萊德曼(Batya Friedman)和海倫·尼森鮑姆(Helen Nissenbaum)的理論中,三種計(jì)算偏見類型十分普遍:先行偏見、技術(shù)偏見和浮現(xiàn)偏見。

      如今也越來越多案例表明,技術(shù)在實(shí)際應(yīng)用中可能通過算法將偏見自動化。

      圖源:公眾號@聯(lián)合國

      數(shù)字性別鴻溝越來越大。

      格子衫成為碼農(nóng)的代稱,程序員代表的都是男人。女性的聰明、邏輯、理性不被承認(rèn),面臨貶抑。如果一位女性出現(xiàn)在編程領(lǐng)域,那么等待她的可能是“程序媛”的污名。

      而賽博空間里,女性依舊被消費(fèi)、被凝視、被形塑,這是現(xiàn)實(shí)觀念的鏡子。

      技術(shù)誠然中立、高效、相對客觀。

      但再精密的算法仍躲不過名為“偏見”的病毒程序。

      缺少女性視角的產(chǎn)物,注定忽視這一半人類,以及更多群體的需求與感受。

      2014年,蘋果公司推出健康檢測系統(tǒng),全面到可以追蹤人體銅和鉬的攝入量,卻無法記錄月經(jīng)周期。直到2019年,電子產(chǎn)品中才有關(guān)于月經(jīng)的emoji表情。

      圖源:emoji

      眾多生物研究,智能醫(yī)療的開發(fā)忽略女性的生物數(shù)據(jù),導(dǎo)致診斷風(fēng)險(xiǎn)加劇。

      科技不可避免地成為特權(quán)的工具。女性、有色族裔等邊緣人士更加不可見。

      《How artificial intelligence reinforces gender bias》;FRANCE 24

      無論他們?nèi)绾尾粩鄤?chuàng)造新名詞,販賣新概念,強(qiáng)調(diào)科技是未來。

      但我們可以看清,這個(gè)美好未來里目前不包括女性。

      AI當(dāng)然可能會創(chuàng)造一個(gè)更好的世界。

      但前提是,還需要更多女性科學(xué)家,或者說更多更具性別平等意識的人類的參與。

        轉(zhuǎn)藏 分享 獻(xiàn)花(0

        0條評論

        發(fā)表

        請遵守用戶 評論公約

        類似文章 更多