自從今年支付寶抽獎活動誕生了巨型“錦鯉”信小呆之后,抽獎就成為了全民關注的焦點。一時間各種抽獎活動興起,就連“國民老公”王思聰也趁著IG奪冠在微博上搞了一次“壕氣沖天”的抽獎活動。
此后,網友們樂此不疲地轉發評論,各種膜拜中獎大神,只求自己也能成為“錦鯉”,甚至有網友表示今年雙11就靠王思聰給的一萬塊活著了。這本來也就是一場網絡狂歡而已,然而在中獎名單公布之后,卻讓人無法再狂歡了,因為113名獲獎者中只有一名男性。
有人分析稱,一些用戶被微博抽獎系統標記為“垃圾用戶”,所以怎樣參與也不會中獎,而新浪微博CEO也給出了自己的解釋。
當然,這樣的解釋并不能讓網友服氣,而且人們發現了更多“不公平”的抽獎結果:天貓抽10人清空購物車,中獎者全部為女性;天貓錦鯉和支付寶錦鯉都是女性;蘇寧抽獎,中獎者全部為女性…
其中的深層原因我們不得而知,當然很可能有人為因素干涉,然而背后更有算法的支撐。現在各個平臺都流行以人工智能來管理,甚至人工智能有取代人類之勢。都說人工智能會抹平各種鴻溝,消除各種不平等,人類在人工智能時代會迎來新氣象,然而種種跡象卻表明那種烏托邦式的美好愿景不可能輕易實現,因為就連AI也學會了歧視,并且不只體現在抽獎活動中。
現在人工智能非常流行的一種應用方式是語音識別。如果人類聽不清對方說話可以要求對方放慢語速,機器卻沒有這種能力,但更大的問題是,如果在訓練語音識別的過程中帶有歧視,會導致更為嚴重的后果。
例如華盛頓郵報曾與Globalme、Pulse Labs兩家語言研究公司合作研究智能音箱的口音問題,發現以非英文作為第一語言的人說英文被Google Home 和Amazon Echo識別出的幾率低,而印度族群所說的英文被識別的幾率高。這是因為許多工程師來自印度,在開發產品時與智能語音助理對話所導致的。當然這是一種無意識的歧視,但它也造成了不平等。
因為搜集帶口音數據的成本高,所以企業選擇體量較大的群體著手也是必然,但許多企業在語音識別方面會優先針對美國、英國、澳大利亞的口音做訓練,久而久之很容易導致沒有這方面優勢的人群被排除在外,無法享受到先進的AI語音識別技術。
在職場中,越來越多的公司會使用AI替代HR人工來篩選HR簡歷,但亞馬遜在使用了一段時間后宣布停止這一做法,原因是AI程序給男性的分數高于女性。因為AI程序分析的數據源是亞馬遜此前10年中收到的全部簡歷,在這些簡歷中,男性申請者較多,所以男性錄取比例高。AI根據這一結果通過深度學習形成了“男性比女性優秀”的認知,最終形成了AI歧視。
在與人類的互動中,AI也可能會被帶偏。2016年微軟推出的聊天機器人Tay在推特上線,但在24小時之內就被匆匆下線,原因是許多用戶有意引導Tay發表種族歧視和性別歧視的言論。
歸根結底,AI都是人類設計和訓練出來的,不論是研發者還是使用者,任何一個環節的偏見都會造成AI歧視的結果。當最為公平的科技都開始學會了歧視,新技術的普及對人類將會是一場災難。
科技雖然能夠讓人類進步,卻也潛藏著很大的風險。如果不能及時制止AI的歧視行為,那么對于人類的影響絕不止一場不公平的抽獎那樣簡單,所以人類應該對此種可能性加以重視,以便防患于未然。否則技術再怎么進步,不平等也依舊存在,甚至還可能有進一步擴大化的趨勢。