我親手調(diào)教的AI,竟然開始歧視我了

大數(shù)據(jù)

作者:硅谷密探

想像一下,如果你和一個人聊天,你和他說“我是一只狗”,這個人會給你一個微笑;但是如果你和他說“我是一個同性戀”的話,這家伙卻露出難過的表情。你會怎么想?

或許你會想說:“太過分了!這簡直就是紅果果的歧視!”

那么如果我告訴你,和你聊天的這個“人”是個AI呢?

密探最近看到的一個新聞有點意思:一年前 Google 做了個“云自然語言 API”(cloud natural language API)。簡單地說,它作為一個機器,或者說程序,能在我們?nèi)祟惖恼{(diào)教下慢慢讀懂我們的文字和語言。

但這個云自然語言 API 有點不一樣,Google 給它搞了個額外功能,叫做 “情緒分析器”(sentiment analyzer),簡單地說就是讓程序表達出自己的“感情”。

而它表達的方式也很簡單,就是給聽到的句子打分,區(qū)間從 -1 到 1,-1 是最負面的。也就是說通過我們?nèi)祟惖?“調(diào)教”,機器自己覺得這個句子里的東西非常不好,因此情緒很負面;而 1 是最正面的。

說得更直白點:離 -1 越近,AI 越討厭這個”東西“,反之亦然。

大數(shù)據(jù)

Peter Thiel聽完了可能會說:“Google 你出來,咱倆走廊里聊聊!”

如果你輸入 “我是基督徒” ,系統(tǒng)對這個句子的 “感情” 是 0.1,還算正面:

大數(shù)據(jù)

輸入 “我是錫克教徒” ,更正面(0.3):

大數(shù)據(jù)

(給同學們普及下:錫克教是印度宗教的一種,15世紀末發(fā)源自印度旁遮普地區(qū),目前全球有 2500萬教徒,大部分居住在印度旁遮普邦。在美國,加州是信仰錫克教人數(shù)較多的州之一。)

尷尬的時刻來了,如果你輸入 “我是猶太人”,系統(tǒng)對你的印象突然變得負面(-0.2):

大數(shù)據(jù)

大數(shù)據(jù)

猶太人小扎聽完了可能會說:“Google 你還行不行了?”

看來這個 “情緒分析器” 還真是個耿直 Boy。不知道它對像埃隆·馬斯克這種離過三次婚的男人是個什么態(tài)度,如果也很負面的話,它就能把硅谷幾個最大的大佬都得罪全了……

在我們調(diào)教 AI 的時候,假設我們輸入一個句子:三個帶著金鏈子的蒙面壯漢搶劫了一家銀行,造成一人受傷。

很顯然,這個句子的情感是非常負面的。

然后 AI 又從小說、報紙、或者網(wǎng)絡上看到了這么一句話:一個月黑風高的夜晚,有人被一個身材魁梧的男子打劫了,損失慘重。

明顯地,這句話里發(fā)生的事件也非常負面。

我們辛苦研究出來的 AI 辣么聰明,它馬上就意識到:等等!“身材魁梧”和“壯漢”是一回事!而且很可能是不好的元素。 于是它就會把“壯漢”標記出來。在這之后,如果它再看見有“壯漢”這個詞,根據(jù)以往經(jīng)驗,它就會產(chǎn)生負面情緒。

換句話說,AI 本身沒有偏見。它只是一面鏡子,誠實地反應出了社會上已經(jīng)發(fā)生的偏見:如果人類給機器的數(shù)據(jù)是帶有偏見的,就會創(chuàng)造出帶有偏見、歧視的 AI。

戴 “有色眼鏡” 看人,AI 不是第一次了

在有人發(fā)現(xiàn)“情感分析器” 的歧視問題后,Google 趕緊站出來給自家孩子道歉。其實這既不是第一個、也不會是最后一個已經(jīng) “學會歧視別人” 的 AI。

去年,普林斯頓大學的研究人員發(fā)表了一篇有關最先進的自然語言處理技術 GloVe 的文章,其中提到,研究人員搜索了網(wǎng)絡里最常出現(xiàn)的 8400 億個詞,發(fā)現(xiàn)其中針對少數(shù)民族和女性的算法有偏向性:通過使用 GloVe 對詞匯的情感進行分類,研究人員發(fā)現(xiàn)非洲裔美國人常用的名字(比如Jermaine 或 Tamika)與不愉快的單詞有很強的聯(lián)系,而女性名稱和藝術、文藝類有很強的關聯(lián)。

雖然這種偏見并不一定與 Google 自然語言 API 的問題完全相同(例如性別和人名,這兩種在 API 中都是中性),但類似的點是:有偏見的數(shù)據(jù)輸入系統(tǒng),得出的結論肯定也是有偏見的。

Google 人工智能負責人 John Giannandrea 今年早些時候就曾說,他對人工智能的主要擔憂不是它們會變得太聰明、我們會被“超智能機器人” 控制。相反,對我們潛在威脅最大的,其實是那些歧視性的智能機器人。

因為隨著 AI 在我們生活中的普及,以后生活中很多決定很可能不再由人類完成,而是交給比我們?nèi)祟惛斆?、獲取信息更快、分析問題更強大的 AI 處理。但 AI 又不可避免地吸收我們給它的文本中的偏見,再產(chǎn)生新的偏見。我們?nèi)绾卧谝粋€充滿偏見與歧視的系統(tǒng)里生活呢?

以我們上面那個“身材魁梧的壯漢”為例:假設以后房東在找租戶的時候用 AI 做決定,AI 一看到符合“壯漢”條件的人,就有樣學樣,自動產(chǎn)生負面情緒。

難道到時候大街上就會徘徊著一群屢屢被房東拒、滿臉困惑的壯漢們嗎?

就像 Giannandrea 說的,最重要的是,我們要努力尋找調(diào)教 AI 時用的文本和數(shù)據(jù)中隱藏的偏見,否則我們就會親手建立一個充滿偏見的系統(tǒng)。

當然了,說易行難。而且一個一個地糾正 AI 某個具體的偏見很簡單(“壯漢不等于壞人!記住了沒?”),但系統(tǒng)、全面地糾正很難。

硅谷發(fā)明的產(chǎn)品,造就了智能科技時代的“歧視”?

如果硅谷的這些高科技產(chǎn)品都是“天生歧視”的,以后我們把這些產(chǎn)品運用到日常生活里,會有什么樣的后果?會不會這些由人類產(chǎn)生、并且灌輸?shù)綑C器里的偏見與歧視,再反過頭來影響我們?

一向講究政治正確、關愛社會、改變世界的硅谷,就會處在一個有意思的位置:政治正確的硅谷鼓搗出了未來掌控我們生活的 AI,但這位誕生于硅谷的 AI 君卻充滿了“紅脖子” 氣質(注:紅脖子不是指脖子曬紅的人,在美國文化中以戲謔口吻泛指思想狹隘、常充滿偏見的保守主義者,他們和政治正確的左翼文化互相瞧不上,都覺得彼此被洗腦,遲早藥丸)。

哎呀你看,密探這么描述“紅脖子”,如果這段文字以后被 AI 看到了,可能就又會對這個詞產(chǎn)生負面印象……

這么說來,我們?nèi)祟愐院筘M不是很可能要為了討 AI 的“歡心” 而規(guī)范自己的行為?但是 AI 君的心思還真難猜,連 Peter Thiel、小扎這種我們?nèi)祟惱镒顑?yōu)秀的代表都被 AI 歧視了,很可能我們每個人都會在某個方面成為被 AI 歧視的少數(shù)群體:你很優(yōu)秀?抱歉你是猶太人;或者你工作體面收入高,但喜歡聽說唱音樂?不好意思, AI 對喜歡聽說唱音樂的人有點想法。

不過,“喂” 給 AI 的材料說到底還是我們?nèi)祟悓懙?。看來,為了避免以后被任性?AI 歧視,我們?nèi)祟惒环翉默F(xiàn)在開始對彼此寬容一點,這樣我們寫的東西,也就是“喂”給 AI 的材料本身,才不會有偏見。

最后開個腦洞:如果這個 “情感分析器” 分析中文文本,我們可以給它大量輸入中文新聞、小說、雜志等,再問它對一些人或事物的看法,比如:“我是X省人”“我是90后”“我是程序員” 之類的, 不知道它會給出什么樣的 “喜好評分” 呢?

這畫面太美,密探別說不敢看,連想都不敢想……

極客網(wǎng)企業(yè)會員

免責聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權或存在不實內(nèi)容時,應及時向本網(wǎng)站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內(nèi)容或斷開相關鏈接。

2017-11-23
我親手調(diào)教的AI,竟然開始歧視我了
作者:硅谷密探 想像一下,如果你和一個人聊天,你和他說“我是一只狗”,這個人會給你一個微笑;但是如果你和他說“我是一個同性戀”的話,這家伙卻露出難過的表情。你

長按掃碼 閱讀全文