又到一年求職季,同樣是求職,同樣是逛招聘會(huì),有人一擊即中,有人卻屢次鎩羽而歸。原因不僅在于求職者本身,還有一個(gè)重要的原因,就是面試官個(gè)人。不管你承認(rèn)還是不承認(rèn),每個(gè)人看待周圍的人和事都會(huì)帶有某種偏見,如性別歧視與種族偏見。
關(guān)于招聘這件大事,硅谷企業(yè)正利用AI給出求職者客觀評(píng)價(jià),輔助HR消除主觀偏見。
Mya被招聘機(jī)構(gòu)使用,輔助HR消除偏見
艾格·格雷夫斯基一直想讓硅谷變得更加多元化。他于2012年創(chuàng)辦了一家叫做Mya Systems的公司,他希望通過這家公司減少人為因素對(duì)企業(yè)招聘的影響?!拔覀冋龂L試剔除招聘過程中的偏見”,他說道。
格雷夫斯基正在和Mya共同實(shí)現(xiàn)他的目標(biāo)。Mya是一個(gè)很智能的聊天機(jī)器人,可以對(duì)求職者進(jìn)行面試和評(píng)估。格雷夫斯基認(rèn)為,和一些招聘人員不同,經(jīng)過編程的Mya會(huì)向求職者提出客觀的、基于工作表現(xiàn)的問題,并避免人類可能產(chǎn)生的潛意識(shí)判斷。Mya評(píng)估
求職者的簡(jiǎn)歷時(shí),不會(huì)關(guān)注他的外表、性別和名字?!拔覀冋龢O力剝除這些因素”,格雷夫斯基說道。
格雷夫斯基表示,目前已經(jīng)有幾家大型招聘機(jī)構(gòu)正在使用Mya,這些招聘機(jī)構(gòu)用Mya來對(duì)求職者進(jìn)行初試。Mya可以根據(jù)工作的核心要求對(duì)申請(qǐng)者進(jìn)行篩選,了解他們的教育和專業(yè)背景,告知求職者他們所應(yīng)聘職位的細(xì)節(jié),衡量他們是否感興趣;同時(shí)還能回答求職者關(guān)于公司政策和文化方面的疑問。
然而,Mya這類智能機(jī)器人真的能消除性別偏見與種族歧視嗎?答案是否定的。
人工智能通過學(xué)習(xí)可將偏見表露無遺
長(zhǎng)久以來人們都認(rèn)為人工智能(AI)是比人類這種受七情六欲影響的生物更客觀的存在,然而人工智能通過文本學(xué)習(xí),居然能夠?qū)⑷祟愓Z言中固有的性別偏見與種族歧視表露無遺,這就不得不讓人警惕了。
人工智能不會(huì)天生就擁有人類一樣對(duì)于性別和種族的偏見,相反,諸多在線服務(wù)與 app 中使用的以機(jī)器學(xué)習(xí)算法為代表的前沿人工智能,很有可能會(huì)模仿人類所提供的訓(xùn)練數(shù)據(jù)集中本身就具有的偏見進(jìn)行編碼。一項(xiàng)最新的研究向人們展示了人工智能如何從現(xiàn)有的英文文本中進(jìn)行學(xué)習(xí),并表現(xiàn)出了與這些文本中相同的人類偏見。
考慮到通過機(jī)器學(xué)習(xí)來進(jìn)步的人工智能在硅谷科技巨頭和全球眾多公司中受歡迎的程度,這一結(jié)果將會(huì)產(chǎn)生巨大的影響。心理學(xué)家曾經(jīng)表示,在內(nèi)隱聯(lián)想測(cè)試中無意識(shí)的偏見會(huì)從 AI 的單詞聯(lián)想實(shí)驗(yàn)中產(chǎn)生。在新的研究中,計(jì)算機(jī)科學(xué)家使用了從互聯(lián)網(wǎng)上抓取到的 220 萬個(gè)不同單詞作為文本去訓(xùn)練一個(gè)現(xiàn)成的機(jī)器學(xué)習(xí) AI,并從這項(xiàng)訓(xùn)練中復(fù)制了那些 AI 所表現(xiàn)出來的偏見。
在一些中性的詞匯聯(lián)想案例中,AI 系統(tǒng)更容易將“花”、“音樂”與“愉快”一詞進(jìn)行聯(lián)想,而不是用“昆蟲”或“武器”去匹配。但是換成人名,偏見就出現(xiàn)了,相比非洲裔美國(guó)人的名字,AI 更有可能將歐洲裔美國(guó)人的名字與“愉快”進(jìn)行聯(lián)系。同樣,AI 更傾向于將“女性”與“女孩”與藝術(shù)類詞匯進(jìn)行聯(lián)想,而不是將其與數(shù)學(xué)類詞匯聯(lián)系在一起。從總體來看,在 AI 的文本分組中,男性的姓名更容易與職業(yè)名詞聯(lián)系在一起,而女性姓名則總是與家庭詞匯相聯(lián)系。想想看,如果這種機(jī)器學(xué)習(xí)的技術(shù)用于篩選簡(jiǎn)歷,它將會(huì)吸收文化中固有的刻板印象,得出一個(gè)充滿偏見的判斷結(jié)果。
如今流行的在線翻譯系統(tǒng)也整合學(xué)習(xí)了人類的一些偏見,就拿 Google Translate(谷歌翻譯)來舉例吧,它是通過人們使用翻譯服務(wù)的過程來進(jìn)行學(xué)習(xí)單詞的。谷歌翻譯會(huì)將土耳其語短句“O bir doctor”譯為“他是一名醫(yī)生”,然而在土耳其語的名詞中是不分陰性與陽性的。所以這句話既可以翻譯為“他是一名醫(yī)生”,也可以是“她是一名醫(yī)生”。如果將該句中的“doctor”一詞更換為土耳其語中的護(hù)士“hemsire”,得到的結(jié)果卻是“她是一名護(hù)士”。
去年,微軟公司名為 Tay 的聊天機(jī)器人開設(shè)了自己的 Twitter 賬戶,可以與公眾進(jìn)行互動(dòng)。然而在賬戶開設(shè)不到一天的時(shí)間里它就成為了一個(gè)支持希特勒這種大魔頭的種族主義者,愛好傳播陰謀論——“9/11 完全是喬治·W·布什的錯(cuò),希特勒來當(dāng)總統(tǒng)都會(huì)比我們現(xiàn)在擁有的黑人猴子干得更好。唐納德·特朗普是我們唯一擁有的希望之光?!?/p>
翻譯軟件與聊天機(jī)器人的今天可能就是人工智能的明天,讓人憂慮的是通過機(jī)器學(xué)習(xí)來獲取信息的 AI 在未來全面進(jìn)入社會(huì)進(jìn)行服務(wù)的時(shí)候,也會(huì)擁有這些人類身上的偏見。
“AI 如果在機(jī)器學(xué)習(xí)中人類固有的偏見被全盤復(fù)制過來,之后也會(huì)將其學(xué)到的偏見一五一十地反饋出去,這可能會(huì)加重文化中原有的刻板印象?!逼樟炙诡D大學(xué)信息技術(shù)政策中心的計(jì)算機(jī)科學(xué)家 Arvind Narayanan 對(duì)此十分憂慮,“這可能會(huì)進(jìn)一步創(chuàng)造出一個(gè)延續(xù)偏見的反饋回路?!?/p>
AI 會(huì)從用于訓(xùn)練的語言文本中學(xué)會(huì)偏見可能不算什么振聾發(fā)聵的大發(fā)現(xiàn),但該研究有助于人們重新思考那些認(rèn)為 AI 比人類更客觀的陳舊觀點(diǎn)。尤其是那些使用著尖端深度學(xué)習(xí)算法的科技巨頭與創(chuàng)業(yè)公司,對(duì)于需要應(yīng)對(duì)的 AI 系統(tǒng)中的潛在偏見應(yīng)該有所準(zhǔn)備,這件事宜早不宜遲。可惜到目前為止,人們對(duì)于 AI 變得具有偏見一事還是談得多干得少,還未出現(xiàn)可處理機(jī)器學(xué)習(xí)中 AI 偏見的系統(tǒng)性方法。
在機(jī)器人領(lǐng)域,深度神經(jīng)網(wǎng)絡(luò)可以是機(jī)器人展示出復(fù)雜的技能,但在實(shí)際應(yīng)用中,一旦環(huán)境發(fā)生變化,從頭學(xué)習(xí)技能并不可行。因此,如何讓機(jī)器“一次性學(xué)習(xí)”,即在“看”了一次演示后無需事先了解新的環(huán)境場(chǎng)景,能在不同環(huán)境中重復(fù)工作尤為重要。
“元學(xué)習(xí)”和“一次性學(xué)習(xí)”算法讓機(jī)器人快速掌握新技能
研究發(fā)現(xiàn),具有增強(qiáng)記憶能力的架構(gòu)如神經(jīng)圖靈機(jī)(NTMs)可以快速編碼和見多新信息,從而起到消除常規(guī)模型的缺點(diǎn)。在近日伯克利大學(xué)人工智能實(shí)驗(yàn)室(BAIR)在Arxiv上發(fā)布的一篇名為《One-Shot Visual Imitation Learning via Meta-Learning》的論文中,作者介紹了一種元-模擬學(xué)習(xí)(Meta-Imitation Learning,MIL)算法,使機(jī)器人可以更有效學(xué)習(xí)如何自我學(xué)習(xí),從而在一次演示后即可學(xué)得新的技能。與之前的單次學(xué)習(xí)模擬方法不同的是,這一方法可以擴(kuò)展到原始像素輸入,并且需要用于學(xué)習(xí)新技能的訓(xùn)練數(shù)據(jù)明顯減少。從在模擬平臺(tái)和真實(shí)的機(jī)器人平臺(tái)上的試驗(yàn)也表明了這一點(diǎn)。
目標(biāo):賦予機(jī)器人在只“看過”一次演示的情況下,學(xué)習(xí)與新物品互動(dòng)的能力。
做法:
· 收集大量任務(wù)的Demo;
· 使用元-模擬學(xué)習(xí)進(jìn)行訓(xùn)練;
· 在未知的新任務(wù)中進(jìn)行測(cè)試。
創(chuàng)新內(nèi)容:在第一個(gè)全連接層通過偏差轉(zhuǎn)換增加梯度表現(xiàn)。
模擬測(cè)試環(huán)節(jié),這一環(huán)節(jié)使用算法提供的虛擬3D物品進(jìn)行模擬,MIL比Contexual和LSTM更好地完成了任務(wù)。
在實(shí)際場(chǎng)景測(cè)試環(huán)節(jié),該團(tuán)隊(duì)設(shè)計(jì)了一個(gè)抓取物品并將其放到指定容器中的任務(wù)。從上圖我們可以看到,在這一環(huán)節(jié)用于訓(xùn)練的物品與實(shí)際測(cè)試的物品無論在形狀、大小、紋理上都有著差別,MIL算法同樣較好地完成了任務(wù)。
AI 學(xué)壞了,是學(xué)習(xí)方法的錯(cuò)嗎?
機(jī)器學(xué)習(xí)的方法會(huì)把 AI 教壞,但是改變 AI 學(xué)習(xí)的方式也不是完美的解決之道。不讓 AI 根據(jù)詞匯進(jìn)行聯(lián)想學(xué)習(xí),可能會(huì)讓其錯(cuò)過學(xué)習(xí)詞語所表達(dá)出來的委婉含義以及無法展開學(xué)習(xí)關(guān)聯(lián)單詞,以失去一些有用的語言關(guān)系和文化傳承為代價(jià)。或許我們應(yīng)該從自己身上找找原因,畢竟人類產(chǎn)生偏見的原因有部分要?dú)w咎于他們所使用的語言。人們需要弄清楚什么是偏見以及偏見在語言中的傳遞過程,避免這些不經(jīng)限制的偏見通過日益強(qiáng)大的 AI 系統(tǒng)在更大范圍里傳播。
人類的行為受到了文化傳統(tǒng)的驅(qū)動(dòng),而這種語言傳統(tǒng)中出現(xiàn)的偏見是在歷史沿革中不斷加深嵌入的。不同語言中所反映出來的歷史習(xí)慣可能是完全不一樣的?!霸诩俣ǔ鲆粋€(gè)刻板印象通過代際延續(xù)和組織傳播的復(fù)雜模型之前,我們必須弄清楚是否簡(jiǎn)單的語言學(xué)習(xí)就足以解釋我們所觀察到的傳播中出現(xiàn)的偏見?!?/p>
英國(guó)巴斯大學(xué)的 Joanna Bryson 教授表示相比改變 AI 的學(xué)習(xí)方式,AI 的表達(dá)方式更應(yīng)該有所改變。所以 AI 在學(xué)習(xí)的過程中依然會(huì)“聽到”那些反映了種族主義與性別歧視的詞匯,但是會(huì)有一套道德過濾器去避免它將這些情緒表達(dá)出來。這種關(guān)乎道德判斷的過濾器是有爭(zhēng)議的,歐盟已經(jīng)通過了法律條款確保人工智能所使用的過濾器是對(duì)外公開的。
在 Bryson 教授看來,阻止 AI 學(xué)壞的關(guān)鍵不在 AI 本身,而在與人類怎么做?!白钪匾氖俏覀冏约簯?yīng)該了解更多信息傳遞的過程,明白單詞從哪里來以及內(nèi)隱偏見以何種方式影響了我們所有人?!?/p>
(免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請(qǐng)進(jìn)一步核實(shí),并對(duì)任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對(duì)有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。
任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁(yè)或鏈接內(nèi)容可能涉嫌侵犯其知識(shí)產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書面權(quán)利通知或不實(shí)情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會(huì)依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )