以Bixby(三星),Alexa (亞馬遜), Siri (蘋果)和 Cortana (微軟)為代表的虛擬個(gè)人助理是目前人工智能(AI)市場(chǎng)最前沿的技術(shù)。然而在這項(xiàng)技術(shù)的應(yīng)用中卻存在著嚴(yán)重的性別偏見(jiàn)。
人工智能是指利用技術(shù)系統(tǒng)執(zhí)行人類通常會(huì)執(zhí)行的任務(wù)。虛擬個(gè)人助理作為智能設(shè)備上的應(yīng)用程序,通過(guò)自然語(yǔ)言處理程序來(lái)響應(yīng)語(yǔ)音命令,在世界各地正受到越來(lái)越廣泛的使用。
根據(jù)聯(lián)合國(guó)教科文組織(UNESCO)最近的一份報(bào)告估計(jì),到明年人類與虛擬個(gè)人助理的對(duì)話將多于與自己配偶的對(duì)話。
當(dāng)我們向三星的虛擬個(gè)人助理Bixby提議“讓我們來(lái)談?wù)撆K的話題吧”(Let's talk dirty),隨后Bixby會(huì)以甜美的女性聲音回復(fù)道:“我可不想被列入圣誕老人的黑名單。”(I don't want to end up on Santa's naughty list.)當(dāng)我們對(duì)帶有男聲的該程序問(wèn)到同樣的問(wèn)題時(shí),得到的回復(fù)是“我了解到土壤侵蝕真的是一個(gè)污染問(wèn)題。”(I've read that soil erosion is a real dirt problem.)
如今市場(chǎng)上所有的虛擬私人助理均帶有默認(rèn)的女性聲音,與Bixby一樣,該女性聲音被編程為回答各種帶有暗示性的問(wèn)題和評(píng)論。當(dāng)我們提問(wèn)“你穿什么?”的時(shí)候,Siri的回答是“我為什么要穿衣服?”(Why would I be wearing anything?), Alexa回答道:“他們不給我做衣服”(They don't make clothes for me)。
三星根據(jù)客戶所選的語(yǔ)言種類提供了不同聲音的Bixby助理。對(duì)于美式英語(yǔ),有朱莉婭(Julia)、斯蒂芬妮(Stephanie)、麗莎(Lisa)和約翰(John),朱莉婭(Julia)、麗莎(Lisa)和斯蒂芬妮(Stephanie)的聲音顯得妖艷而熱切,而約翰(John)的聲音給人聰慧且直率的印象。
除了回答方式以及聲音的不同之外,這種偏見(jiàn)最明顯的表現(xiàn)之一就是女性名字的使用:比如Siri和Cortana。Siri是一個(gè)北歐名字,意思是“帶領(lǐng)你走向勝利的美麗女人”。Cortana的名字、聲音和形象均來(lái)自游戲《光暈》系列。Cortana是由一位成功的女科學(xué)家的大腦克隆而成,擁有一個(gè)透明且非常性感的女性身體。她以其謙遜的智慧和迷人的外形,在游戲中為玩家提供了一個(gè)順從且忠誠(chéng)的虛擬助手。
虛擬私人助理的設(shè)計(jì)通過(guò)女性的名字、聲音和程序化的調(diào)情方式,再現(xiàn)了女性秘書帶有歧視性的刻板印象。同時(shí)在技術(shù)應(yīng)用中還強(qiáng)調(diào)了女性次要的地位以及對(duì)男性的順從。
人們?cè)絹?lái)越認(rèn)識(shí)到,人工智能系統(tǒng)往往存在偏見(jiàn),尤其是在種族和性別方面。例如,亞馬遜(Amazon)最近開(kāi)發(fā)的為求職簡(jiǎn)歷分類的招聘算法顯示出性別偏見(jiàn),將包含“女性”一詞或涉及女子學(xué)院的簡(jiǎn)歷降級(jí)。由于該人工智能的算法是根據(jù)歷史數(shù)據(jù)和優(yōu)先招募男性來(lái)學(xué)習(xí)的,最終由于無(wú)法修改而被放棄使用。
研究表明,具有性別偏見(jiàn)的人工智能系統(tǒng)的開(kāi)發(fā)與設(shè)計(jì)團(tuán)隊(duì)中缺少女性之間存在著關(guān)鍵的聯(lián)系。AI Now是一家研究人工智能對(duì)社會(huì)影響的研究機(jī)構(gòu),該機(jī)構(gòu)表明男性主導(dǎo)的人工智能產(chǎn)業(yè)與其生產(chǎn)的歧視性系統(tǒng)及產(chǎn)品之間有著明顯的聯(lián)系。
AI是第四次工業(yè)革命中的領(lǐng)先技術(shù),正在迅速改變我們所認(rèn)知的世界,因此思考和解決推動(dòng)這些變化的技術(shù)如何影響女性將變得越來(lái)越重要。
(參考:https://techxplore.com/news/2019-09-artificial-intelligence-gender-bias-problemjust.html)
聯(lián)系客服