我們應該如何理解李飛飛價值十億美金的“人文AI”計劃?

原標題:我們應該如何理解李飛飛價值十億美金的“人文AI”計劃?

AI自從以應用角度走進大眾視野,就一直逃不出“人文主義”的苛責。作為一種依靠于海量數據運轉的技術,AI之所以能夠作為提升效率的工具,主要還是因為對人類經驗的高度集中。

而“人類經驗”這件事,本身就是不夠完美的。普遍能夠累積成海量數據的經驗,有時反而更加充滿偏見。就像如果把AI帶入哥倫布時代,AI也會成為一位堅定的地心論支持者。

而李飛飛離開谷歌回歸斯坦福后,主導的第一個項目HAI——以人為本人AI研究院(Stanford Human-Centered AI Institute),就在著重解決AI與人文主義之間的溝壑。

AI擬人化,竟是一位“富裕的白人男性”?

首先要知道的,究竟是什么讓AI無法“以人為本”?

目前從人文、從公平的角度來看,AI公認的兩個問題是“白人至上(White Guy Problem)”和“男性之海(Sea of Dudes)”。

所謂白人至上,是指在算法驅動下AI所做出的一些種族歧視行為。例如谷歌的圖片自動分類曾經將黑人照片分類成大猩猩,以及惠普的攝像頭算法無法識別深膚色的人。在犯罪預測軟件中,甚至會將黑人的犯罪率識別成普通白人的兩倍以上。

而男性之海,則指的是AI從業(yè)者中有極大的性別傾斜,在2015年的NIPS上,女性與會者的人數竟然只占到了13.7%,李飛飛提到,在論文引用量,男性作者的被引用次數要比女性作者高100倍。


用《紐約時報》的話講,兩者結合,讓AI被塑造出了一個“富裕白人男性”的價值觀——剛好和那些掌握著科技霸權的企業(yè)主們一模一樣。

如此以來,對于AI的應用很可能反而會讓人們一直以來對于推動種族、性別間平等所做的努力白費。

就像平權主義者一直在推動男女收入平等,而去年卡內基梅隆大學的計算機科學家卻發(fā)現,在谷歌的廣告推送機制中,更傾向于將高收入工作的招聘廣告推送給男性用戶。

而當美國各地警察部門在執(zhí)行預測性警務工作時,數據驅動的風險評估工具會讓他們更多的前往有色人種聚集區(qū),無形中加重了對某一人群的偏見和標簽化。

可怕的是,當女性在職場上遇到歧視時,她還可以對自己情況進行發(fā)聲。而當AI驅動一切在無聲中進行時,女性甚至不知道自己正在處在歧視鏈之中——如果從沒見過這項招聘啟事,女性自然不知道高收入工作更傾向于招聘男性。

而當AI行業(yè)中充斥著“富裕的白人男性”時,他們自然也很難注意到算法黑箱中產生了這樣的問題。最終萬事萬物都在人類歧視造就的規(guī)則下運行,被驅動的每一個群體卻又看不清規(guī)則的真正面目。

十億美金的遠大目標

李飛飛在斯坦福主導的HAI項目,大概有著以下三個目標:第一是推進和發(fā)展下一代AI科學(重點在于腦科學和認知科學),第二是研究和預測AI對人類社會和生活的影響,第三是設計和實踐以人為本的AI技術和應用。

這么一看,所謂“以人為本”的說法其實挺虛的。但綜合斯坦福的一些公開資料,以及李飛飛的一些講話,我們可以大概總結出HAI究竟想做些什么。

首先是在AI研究中引入更多樣化的視角和交叉思維。

最主要的,就是支持女性和有色人種進入AI研究。例如斯坦福所支持的“Black in AI”項目,就在號召有色人種關注目前的AI研究,關注AI無形中所帶來的歧視問題。

同時還有持續(xù)追蹤各個領域應用AI后所帶來的影響。

初次之外,HAI還邀請了社會各界人士共同參與,如教育、工業(yè)、藝術等等領域,試圖讓他們一起發(fā)表意見,尤其是對技術研發(fā)者給出反饋,告訴他們AI究竟對這一領域產生了哪些影響,以權衡技術的未來走向。

至于推動下一代AI科學就很好理解了,主要是幫助研究者圈定研究方向,推動AI的可解釋性等等,這里就不再進行贅述。


但有趣的是,HAI作為一個非常政治正確并偉光正的項目,并沒有在輿論獲得一致性的支持。尤其有媒體指出,該機構有121位教職工,其中有100位以上都是白人,并只有30%的女性。

于是事情就變成了,HAI邀請了一群富裕的白人男性,試圖募集10億美金去從人文角度矯正人工智能的“富裕白人男性”價值觀。

齒輪之下:如何看待商業(yè)效率以外的AI?

雖然HAI獲得的評價不一,但AI所帶來的公平性問題,確實已經開始影響人們的正常生活。

就像上文提到的算法錯誤估計有色人種犯罪率將其提升了兩倍,同樣意味著算法將白人的犯罪率錯誤的低估了兩倍。如果執(zhí)法者依賴這種錯誤的算法,則意味著不僅可能冤枉好人,也可能錯放壞人。

又比如前兩年亞馬遜曾經鬧出的丑聞,用戶發(fā)現算法在分配貨物能否當日送達時,一旦輸入了黑人聚集區(qū)的郵政編碼,就無法使用當日送達服務。


(被評價為“高風險”的有色人種,和擁有數次犯罪記錄卻被評定為低風險的白人)

這種偏見現象正在越來越多地出現在種種服務中:貸款的AI風控、保險的AI審核機制。最后就導致了越是弱勢群體,越容易被算法邊緣化,進而難以獲得資源與幫助,最后進一步地向弱勢一方傾斜,甚至最終走向犯罪,加重了算法歧視。

如此看來HAI的很多策略,是非常值得我們仔細思考的。

例如,當我們在關注產業(yè)AI的效率問題時,我們是否也應該考慮在效率之外,AI對于產業(yè)的更多影響?當AI對于擁有強大IT基礎的零售集團發(fā)揮作用,他們更加理解用戶心智時,那些小而美的微型零售店是否在風潮中被遺忘和擠壓,最終退出舞臺?

又比如除了那些研發(fā)技術和為技術買單的人之外,我們是否有責任去傾聽更多人的聲音?AI的研發(fā)者與技術采買者或許清晰地知道AI是如何推動我們生活運轉的,但那些同樣被卷在齒輪之下的人,是否也有權力了解到這些齒輪的運轉規(guī)則?

更重要的,我們是否應該盡力去推動AI黑箱的透明化,在發(fā)現問題時能夠從內部技術機制上解決?

以往我們總覺得,技術永遠只是研發(fā)者和應用之間的故事。如今看來,或許AI已經成為了一個世界命題。

世界命題,就應該廣泛參與。

極客網企業(yè)會員

免責聲明:本網站內容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網站出現的信息,均僅供參考。本網站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。任何單位或個人認為本網站中的網頁或鏈接內容可能涉嫌侵犯其知識產權或存在不實內容時,應及時向本網站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網站在收到上述法律文件后,將會依法盡快聯系相關文章源頭核實,溝通刪除相關內容或斷開相關鏈接。

2019-03-30
我們應該如何理解李飛飛價值十億美金的“人文AI”計劃?
所謂白人至上,是指在算法驅動下AI所做出的一些種族歧視行為。

長按掃碼 閱讀全文