作者|雷宇
來源|智能相對論(aixdlun)
1911年辛亥革命后,上海外灘公園外立著的一塊寫有幾行字的告示牌——“華人與狗不得入內(nèi)”被拆除,上海人民稍微松了一口氣。
但歧視不會缺席,也不會遲到。
直到今天,職場對女性的歧視依然嚴重,雖然少有用人單位明目張膽的聲張只招男性不找女性,但招聘女性時設(shè)置的門檻卻無不寫著歧視,除了考察工作能力,還要考量婚姻狀況,家庭狀況、生育狀態(tài)等等。并且,這些問題在入職前,這些你一直以為的隱私的都會被赤裸裸的直接提問。
更讓人感到無力的是,隨著人工智能技術(shù)的進步,這種職場歧視似乎在不斷加深。這兩天,亞馬遜AI招聘工具被曝性別歧視,該系統(tǒng)會給予包含“女性”這個詞的簡歷以低星評級。即使技術(shù)人員修改程序使得系統(tǒng)在特定術(shù)語上秉持中立的原則,但是接下機器還會有什么新的歧視,無人知曉。
數(shù)據(jù)是社會的產(chǎn)物,技術(shù)中立是不可能的
技術(shù)中立是不可能中立的,這輩子都不可能。
你以為的技術(shù)中立是什么?不含偏見,不偏不倚,人人都能平等的享受科技帶來的便捷。
這是企業(yè)的宣傳語但不是事實。任何一種技術(shù)的發(fā)明一定免不了沾滿了有血有肉的人的“色彩”,它由人塑造,受當下的社會環(huán)境影響,是社會的產(chǎn)物。而人工智能技術(shù),它由數(shù)據(jù)驅(qū)動,由于數(shù)據(jù)具有一定的社會屬性,所以數(shù)據(jù)里的歧視,會完整的反射到了人工智能招聘機器上甚至?xí)怀杀斗糯蟆?/p>
果殼網(wǎng)文章《當AI學(xué)會性別歧視》里提到一個案例,有一位研究人員的研究內(nèi)容是辨認場景復(fù)雜生活照,她發(fā)現(xiàn),男人被認成女人的圖片有一些共同點——都是站在廚房里,或者在做家務(wù)。
這并不是哪里出現(xiàn)了問題,而是機器從大數(shù)據(jù)里得到的認知就是女人和某些特定的元素有關(guān),比如廚房,比如家務(wù)??磥聿还苣膫€國家,女性都多于家庭聯(lián)系在一起。
波伏娃說,一個人不是生來就是女人,她是變成女人的。
我們毫無知覺的變成了女人,又不自覺的向女性身份看齊表示認同。機器仿佛是《皇帝的新衣》里那個天真小孩,敏銳的察覺我們身為女人所帶有的標簽(主動或被動),最后以一種近乎殘酷的方式呈現(xiàn)出來。就像人們常常覺得男生比女生更適合理科一樣,人們固有的觀念是男性比女性更適合領(lǐng)導(dǎo)崗位,男性比女性更擅于決策等等。在谷歌的廣告服務(wù)中,男性會比女性看到更多的高薪招聘廣告,這些既定的事實使得女性的職場天花板愈加明顯。
樂觀一點說,隨著社會的進步,職場對女性的歧視將會慢慢改變,悲觀一點,……還是不說了吧。在實際的機器訓(xùn)練中,數(shù)據(jù)驅(qū)動的技術(shù)如果能全面反映數(shù)據(jù)本身的內(nèi)在聯(lián)系,人們無疑會認可這門技術(shù),但是如果這門技術(shù)反應(yīng)的內(nèi)在聯(lián)系是人們不希望它反應(yīng)的呢?這些明晃晃、大剌剌、冷冰冰的職場歧視,一句所謂的技術(shù)中立,就能解釋嗎?
正如劍橋大學(xué)教授魯恩?奈如普(Rune Nyrup)所言,“沒有事實上的技術(shù)中立。對機器來說,中立的就是占統(tǒng)治地位的?!?/strong>
在AI招聘上,有公平算法嗎?
關(guān)于人工智能歧視的問題已經(jīng)發(fā)生多起,比如谷歌的圖片軟件曾錯將黑人標記為“大猩猩”,微軟的Tay僅僅上線一天, 就變成了一個集反猶太人、性別歧視、種族歧視等于一身的“不良少女”等等。那么在未來,人工智能招聘是否可以實現(xiàn)真正的公平呢?
實際上AI可應(yīng)用于招聘的很多環(huán)節(jié),比如篩選簡歷,視頻面試,聊天面試等。篩選簡歷是一個大工程,少則幾十份,多則幾百份。曾有一個做HR的朋友說,有時候簡歷實在太多就分成兩半,另一半直接扔垃圾桶……因此,這種重復(fù)且瑣碎的活最適合人工智能來干。但人工智能篩選簡歷需要將公平量化,使公平被翻譯成可操作性的算法。
而利用人工智能聊天機器人,不管是視頻聊天還是其他形式的聊天,機器人都需要具備一定的分析能力,比如分析求職者的語調(diào)、眼神和回答的表情,來判斷求職者是否對工作富有熱情。但這同樣需要公平算法,畢竟智能相對論(aixdlun)分析師雷宇的瞇瞇眼被人認定為打瞌睡也不是一兩次了。
那么公平可以被量化嗎?
2011年《科學(xué)》雜志上的一項研究顯示,情緒可以被數(shù)據(jù)化,來自世界上不同文化背景的人們每天、每周的心情都遵循著相似的模式。這項研究建立在兩年多來對84個國家240萬人的5.09億條微博的數(shù)據(jù)分析上。
但是公平比情緒要抽象得多,而且如果人工智能需要研究公平算法,誰來決定公平的考量因素呢?這似乎陷入了一個死循環(huán)。
我們很難將公平量化,也就不說公平算法了?,F(xiàn)階段的人工智能招聘官一般用在低水平入門級別的工作招聘中,而稍微要求高一點的招聘,AI最多能起輔助作用,也就是科大訊飛所說的“人機耦合”。
歧視無處不在,子子孫孫無窮盡也
在發(fā)生人工智能招聘歧視之后,亞馬遜拒絕對于該招聘引擎或面臨的挑戰(zhàn)作出評論,并表示自己一直致力于保證公司的員工多樣性和平等。
但智能相對論(aixdlun)分析師雷宇想要提醒大家的是,亞馬遜也致力于成為“地球上最以消費者為中心的公司“,但有研究發(fā)現(xiàn),亞馬遜的購物推薦系統(tǒng)卻一直偏袒其自己及其合作伙伴的商品,即使其他賣家的商品的價格更低。而在購物比價服務(wù)中,亞馬遜隱瞞了其自己以及其合作伙伴的商品的運費,導(dǎo)致消費者不能得到一個公正的比價結(jié)果。
商家為了自身利益最大化,會有無數(shù)歧視的手段和理由。同樣,職場中的女性,會被無數(shù)看似正當?shù)睦碛善缫?,未婚未孕?企業(yè)方擔心你休婚假產(chǎn)假,未婚已孕?企業(yè)方擔心你生小孩要耽誤一年,其中最可怕的就是大齡未婚的女青年了……
100多年過去了,上海已經(jīng)儼然成了一個像模像樣的大都市,但也成了這個時代歧視外地人的典型。
這樣看上海的我,又何嘗不是歧視呢。
免責(zé)聲明:此文內(nèi)容為第三方自媒體作者發(fā)布的觀察或評論性文章,所有文字和圖片版權(quán)歸作者所有,且僅代表作者個人觀點,與極客網(wǎng)無關(guān)。文章僅供讀者參考,并請自行核實相關(guān)內(nèi)容。投訴郵箱:editor@fromgeek.com。
- 國產(chǎn)手機大勝,蘋果銷量大跌,難怪急哄哄降價千元
- 這里不止“羊毛月”,少年也在以電商助農(nóng)
- 同仁堂醫(yī)養(yǎng)IPO: “三位一體”診療服務(wù)體系高效協(xié)同 “中醫(yī)+”健康服務(wù)未來可期
- 走出群山,長賽道“攀登者”vivo
- 三線結(jié)構(gòu)光與升降LDS激光雷達 石頭自清潔掃拖機器人G30導(dǎo)航避障新里程
- 石頭科技閃耀CES2025 首創(chuàng)仿生機械手掃拖機器人
- TCL華星亮相CES2025,印刷OLED等創(chuàng)新顯示技術(shù)全球吸睛
- 科技云報到:從大模型到云端,“AI+云計算”還能講出什么新故事?
- 承載AI的云南花卉,正在盛開
- 打造個人辦公新范式,科大訊飛召開辦公智能體產(chǎn)品升級發(fā)布會
免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關(guān)資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責(zé)。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負任何法律責(zé)任。任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。