因?yàn)椤捌缫暋焙汀捌姟?,AI暫時(shí)還做不了人的主

原標(biāo)題:因?yàn)椤捌缫暋焙汀捌姟保?a href="http://m.ygpos.cn/AI_1.html" target="_blank" class="keylink">AI暫時(shí)還做不了人的主

關(guān)于AI歧視我們也聊了很多,比如相貌偏見、語(yǔ)言歧視等,但AI的歧視顯然不僅只在這一個(gè)淺顯的領(lǐng)域。在其相貌和語(yǔ)言歧視的背后,矗立的其實(shí)是AI對(duì)這個(gè)社會(huì)全方位的片面判斷。

那么,AI的歧視問題也就不是一個(gè)簡(jiǎn)單的算法問題了。今天我們就再聊一聊AI的偏見問題,以及面對(duì)它,我們究竟能做些什么。

始作俑者的人類本身:AI歧視產(chǎn)生的根源

首先我們需要清楚的是,發(fā)生AI歧視這種事情的原因在哪里。目前來(lái)看,大體上有兩個(gè)個(gè)方面。

1. 數(shù)據(jù)和算法的限制。

首先是數(shù)據(jù)的限制。AI對(duì)事物作出的判斷不是憑空或者隨機(jī)而得的,它必須要經(jīng)過一些列的訓(xùn)練學(xué)習(xí)才可以。那么,如果要訓(xùn)練它在某方面的能力,就要將相關(guān)領(lǐng)域的數(shù)據(jù)搜集起來(lái)供其學(xué)習(xí)。在這一方面,如果數(shù)據(jù)訓(xùn)練量不足,那么就會(huì)造成AI學(xué)習(xí)的不完備,其也就可能作出錯(cuò)誤的判斷。

而數(shù)據(jù)限制的另一方面則來(lái)自數(shù)據(jù)本身。比如某個(gè)群體會(huì)有一些共性的特征,那么AI將會(huì)把這些大多數(shù)的共性特征數(shù)據(jù)作為標(biāo)簽來(lái)用。一旦對(duì)象不在這個(gè)群體特征里,或?qū)儆谶@個(gè)群體的少數(shù)特征,其就有可能采取否定的態(tài)度。

其次則是算法的限制。程序員在設(shè)置AI學(xué)習(xí)程序的時(shí)候,無(wú)法做到過濾到每一條消極的信息。因此,AI在經(jīng)過大量的數(shù)據(jù)學(xué)習(xí)之后,其會(huì)自動(dòng)匹配不同群體之間的關(guān)鍵詞,然后做出判斷。比如職業(yè)的男女分化問題。

事實(shí)上,目前我們面臨的所有AI的歧視問題基本上是圍繞著這兩個(gè)方面展開的。數(shù)據(jù)學(xué)習(xí)不夠多,或者數(shù)據(jù)學(xué)習(xí)夠多之后,其學(xué)習(xí)范圍超出了程序員設(shè)定的內(nèi)容,然后開始進(jìn)行自我學(xué)習(xí)和判斷。這就造成了歧視行為的發(fā)生。

2. 人類固有偏見的強(qiáng)化。

但AI的歧視問題的根源并不在于數(shù)據(jù)和算法。在一定程度上,AI的歧視實(shí)際上是人類偏見的一種顯現(xiàn)和強(qiáng)化。人類是善于進(jìn)行言語(yǔ)上的克制的,或者表現(xiàn)出在溝通交流中的表面客套。長(zhǎng)此以往,人們似乎把隱藏自己對(duì)別人的偏見當(dāng)成了一種有素質(zhì)的美德。問題變成了你心里歧視與否不重要,面上做得好,你就是一個(gè)好人。

在這方面,做慈善的被曝丑聞后對(duì)比尤其突出。

而AI出現(xiàn)的意義之一就是打破了人們維持表面友好的自我欺騙的情況,它把那些被人們刻意隱藏的,并且似乎被隱藏得很好的東西重新抖摟了出來(lái)。這就是顯現(xiàn),那么為什么說(shuō)會(huì)得到強(qiáng)化呢?

首先,AI學(xué)習(xí)就是一個(gè)排除的過程,比如對(duì)圖像語(yǔ)義分割,它要找到眼球,就必須要先進(jìn)行圖像的分割,否定其他不適眼球的東西。同理,要招到一個(gè)合適的員工,它也是重點(diǎn)去排除不合適的選項(xiàng)。否定的過程,就是一個(gè)強(qiáng)化的過程。

其次,是基于AI的特殊屬性。AI是有史以來(lái)第一個(gè)人造的、有自己的判斷能力的事物,當(dāng)它出現(xiàn)一些違背人類維持表面友好而設(shè)定的一些規(guī)則的時(shí)候,人們一方面感到驚異,另一方面則會(huì)由此而進(jìn)一步看清自己。它毫不留情地折了人類的面子,自然換來(lái)了更大的關(guān)注。

算法的限制和對(duì)人類固有觀念的強(qiáng)化,大抵可以說(shuō)明了AI歧視橫行的原因所在。

AI歧視不僅類別多,影響可能還很大

如果我們僅僅是被AI歧視了,并且知道它的歧視是算法和人類本身問題所致,那也就無(wú)需擔(dān)心。畢竟,歧視無(wú)處不在,心理足夠強(qiáng)大,任何歧視都?jí)虿怀苫鹆?。論不要臉的自黑精神,似乎沒誰(shuí)能比得過現(xiàn)代人。

但是,當(dāng)AI不僅僅是歧視你,還要對(duì)你做出判斷,決定你的人生、工作、地位……的時(shí)候,你還能對(duì)它的歧視坐視不管嗎?

比如現(xiàn)在非常流行一個(gè)概念,用AI來(lái)進(jìn)行招聘。在理論上來(lái)講,它能夠通過學(xué)習(xí)既有的員工資料來(lái)篩選最符合公司需求的新人。對(duì)這些員工進(jìn)行標(biāo)簽分類是學(xué)習(xí)的一環(huán),能力強(qiáng)、口才好、實(shí)習(xí)經(jīng)驗(yàn)豐富等可能會(huì)被篩選出來(lái),但是,萬(wàn)一在這些樣本中,AI找到了其他具有高度相同但和招聘又無(wú)關(guān)的標(biāo)簽了呢?

比如這些人可能男生多一點(diǎn),它可能會(huì)認(rèn)為女生不適合這項(xiàng)工作;如果城市戶口的人多一點(diǎn),來(lái)自農(nóng)村的就有可能被篩掉;如果23歲以前的人多一點(diǎn)的話,那23歲以后的人就可能被認(rèn)為不適合……

你看,僅僅就是這幾個(gè)方面,就已經(jīng)涉及到性別歧視、地域歧視、年齡歧視了。雖然人們開發(fā)AI進(jìn)行招聘是為了避免面試官會(huì)憑主觀印象決定去留,但太過于客觀的AI招聘同樣也會(huì)引發(fā)一些值得考慮的問題。

再比如把AI布置在警務(wù)工作當(dāng)中。最近一段時(shí)間提到最多的就是利用AI幫助識(shí)別甚至是預(yù)測(cè)罪犯。比如去年上海交大的一篇論文中提出,可以通過人的樣貌進(jìn)行分析,來(lái)判斷此人是否有犯罪的傾向。簡(jiǎn)單來(lái)說(shuō),就是看你是不是長(zhǎng)了一張“犯人臉”。而美國(guó)的警察也在最近試圖部署一套警務(wù)系統(tǒng),來(lái)預(yù)測(cè)犯罪發(fā)生的人員相關(guān)、地理區(qū)域等,然后來(lái)針對(duì)性加強(qiáng)監(jiān)控。英國(guó)來(lái)采用過類似的方法來(lái)預(yù)防犯罪。

這其中自然存在著嚴(yán)重的問題??础叭四槨本湍鼙孀锓福侩m然相貌歧視確實(shí)一直存在,但基本上都是基于五官的缺陷?,F(xiàn)在居然升級(jí)了。美國(guó)的預(yù)測(cè)犯罪往往會(huì)把黑人和黑人集中區(qū)域當(dāng)做重點(diǎn)預(yù)測(cè)對(duì)象,這是很難令人接受的。尤其是美國(guó)這樣一個(gè)對(duì)黑人歧視非常忌諱的國(guó)家,AI即便不是個(gè)人,這一舉動(dòng)也會(huì)招致人們的討厭。英國(guó)就更不用說(shuō)了,他們的這個(gè)監(jiān)視系統(tǒng)運(yùn)行了一段時(shí)間之后,窮人被特別針對(duì)了,因此最終不得不緊急下線。

從這幾個(gè)案例當(dāng)中,我們發(fā)現(xiàn),AI還存在著相貌歧視、種族歧視、貧富歧視。除此之外,AI的歧視還深度存在于各行各業(yè)當(dāng)中,甚至未來(lái)的一天我們可能真的會(huì)像《黑鏡》當(dāng)中一樣戴一個(gè)隱形眼鏡,然后就可以看到眼鏡對(duì)面來(lái)人的安全度識(shí)別。高安全度也不一定真的安全,很有可能是刷出來(lái)的呢?

也就是說(shuō),AI的歧視是一個(gè)綜合性的東西。問題又來(lái)了:難道因此我們就要將AI廢棄嗎?我們?nèi)祟惥湍敲床A膯幔?/p>

當(dāng)然,棄用AI不現(xiàn)實(shí),這是一個(gè)因噎廢食的行為。它畢竟還在深刻地改變著我們的這個(gè)社會(huì)。但是,隨著AI的大規(guī)模應(yīng)用,努力減輕甚至是消除AI的偏見,也已經(jīng)顯得迫在眉睫。

怎能坐視不管:AI歧視的解決之道

谷歌的一款數(shù)據(jù)庫(kù)被人們發(fā)現(xiàn)有存在著明顯的性別歧視。比如一個(gè)簡(jiǎn)單的問答,巴黎:法國(guó),那么東京:X,系統(tǒng)就會(huì)給出X=日本。如果是“父親:醫(yī)生”,其則將會(huì)對(duì)應(yīng)“母親:護(hù)士”;“男人:程序員”,“女人:家庭主婦”,諸如此類。

研究者們創(chuàng)建了一種“硬性糾錯(cuò)”的方法。簡(jiǎn)單來(lái)講,就是把系統(tǒng)判斷出的對(duì)應(yīng)關(guān)系放到一個(gè)論壇平臺(tái)上去發(fā)布并詢問是否合適。如果有一半的人認(rèn)為不合適,那么這個(gè)類比就不恰當(dāng)。這種方式進(jìn)行了一段時(shí)間之后,對(duì)AI進(jìn)行單詞搭配的改善效果是非常顯著的。

這個(gè)方法雖然有效,但是明顯看出它只能適用于一些數(shù)據(jù)范圍較小的方面。比如某一家公司的招聘,可以在招聘之前對(duì)AI進(jìn)行訓(xùn)練,然后找出問題,再用這種方法進(jìn)行硬性糾錯(cuò)。但是如果要用它來(lái)解決AI所有的問題,卻有點(diǎn)不現(xiàn)實(shí)。

哥倫比亞大學(xué)的研究者們則開發(fā)出了另外一種方式。深度學(xué)習(xí)研究的進(jìn)步是AI復(fù)活的一個(gè)重要因素,但是AI的黑箱問題仍然沒有解決。因此,這些研究者們就試圖用打開黑箱的方式去弄明白為什么AI會(huì)做出一些錯(cuò)誤的決定。他們開發(fā)出了一個(gè)能在神經(jīng)網(wǎng)絡(luò)中通過欺騙系統(tǒng)從而使其暴露自身缺陷的軟件,名叫“DeepX plore”。這個(gè)軟件能夠激活系統(tǒng)中幾乎百分之百的神經(jīng)元,從而讓整個(gè)神經(jīng)網(wǎng)絡(luò)去掃描錯(cuò)誤。

也有其他的人建議從編程上去解決問題。但是從根本上來(lái)說(shuō),人類應(yīng)該把AI的歧視當(dāng)做一面鏡子,仔細(xì)審視自己在社會(huì)活動(dòng)中種下的禍根。由此,不斷減少自己實(shí)際意義上的歧視和偏見。只有學(xué)習(xí)的內(nèi)容消失了,AI才可能避免產(chǎn)生歧視的問題。

但是我們?nèi)匀灰⒁獾囊粋€(gè)問題是,用“偏見”和“歧視”去概括AI所有的“區(qū)別對(duì)待”是不合適的。人類發(fā)展到現(xiàn)在,不同職業(yè)對(duì)人有不同的要求,男人耕田女人織布反映的其實(shí)是歷史經(jīng)過長(zhǎng)期發(fā)展后的自然分工。那么,在處理AI歧視問題的時(shí)候就不是一個(gè)簡(jiǎn)單的算法糾正了,它還涉及到社會(huì)學(xué)、經(jīng)濟(jì)學(xué)等各個(gè)方面的問題。

這樣來(lái)看,解決AI的歧視和偏見,我們可能仍然有很長(zhǎng)的路要走。目前能做的就是,生殺大權(quán)這件事兒,還是交給人類自己吧。

免責(zé)聲明:本網(wǎng)站內(nèi)容主要來(lái)自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請(qǐng)進(jìn)一步核實(shí),并對(duì)任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對(duì)有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁(yè)或鏈接內(nèi)容可能涉嫌侵犯其知識(shí)產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書面權(quán)利通知或不實(shí)情況說(shuō)明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會(huì)依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。

2018-06-07
因?yàn)椤捌缫暋焙汀捌姟?,AI暫時(shí)還做不了人的主
原標(biāo)題:因?yàn)椤捌缫暋焙汀捌姟?,AI暫時(shí)還做不了人的主關(guān)于AI歧視我們也聊了很多,比如相貌偏見、語(yǔ)言歧視等,但AI的歧視顯然不僅只在這一個(gè)淺顯的領(lǐng)域。

長(zhǎng)按掃碼 閱讀全文