人工智能可以幫助消除偏見嗎?

“我們不會看到事物的本質,我們只是以自己的方式在看待它?!彼喈敽啙嵉孛枋隽税殡S我們的大腦而來的各種不幸的偏見。

在商業(yè)環(huán)境中,親和力偏差、確認偏差、歸因偏差和光環(huán)效應,這些推理錯誤中的一些更為人所知的,實際上只是表面上的。總的來說,他們會留下一連串的冒犯和錯誤。

當然,人類最有害的偏見是那些基于年齡、種族、性別、宗教或外貌而對我們的人類同胞產(chǎn)生偏見或反對我們的偏見。盡管我們努力凈化我們自己、我們的工作環(huán)境和我們的社會,使其不受這些扭曲的影響,但它們仍然在我們的思想和行為中滲透,甚至包括現(xiàn)代技術,比如人工智能。

批評人士表示,人工智能讓偏見變得更糟

自從人工智能首次被部署在招聘、貸款審批、保險費建模、面部識別、執(zhí)法和一系列其他應用中以來,批評人士(有相當多的理由)指出了該技術的偏見傾向。

例如,谷歌的新版語言模型BERT(Bidirectional Encoder Representations from Transformers)是一個領先的自然語言處理(NLP)模型,開發(fā)人員可以使用它來構建他們自己的AI。BERT最初是使用維基百科文本作為其主要來源構建的。這有什么問題嗎?維基百科的貢獻者絕大多數(shù)是來自歐洲和北美的白人男性。因此,基于語言的人工智能最重要的來源之一在其誕生之初就帶有偏見的觀點。

在人工智能開發(fā)的另一個關鍵領域計算機視覺中也發(fā)現(xiàn)了類似的問題。面部識別數(shù)據(jù)集包含數(shù)十萬張標注的人臉,這對于開發(fā)用于網(wǎng)絡安全、執(zhí)法甚至客戶服務的面部識別應用程序至關重要。然而,事實證明,開發(fā)人員(可能大部分是白人中年男性)在為像他們這樣的人實現(xiàn)準確性方面不知不覺地做得更好。女性、兒童、老年人和有色人種的錯誤率遠高于中年白人男性。因此,IBM、亞馬遜和微軟在2020年被迫停止向執(zhí)法部門銷售其面部識別技術,因為擔心這些偏見會導致對嫌疑人的錯誤識別。

要了解更多信息,可以觀看重要且有時令人不寒而栗的紀錄片《編碼偏見》Coded Bias。

如果AI實際上是偏見解決方案的一部分呢?

然而,對人工智能偏見現(xiàn)象的更好理解表明,人工智能只是暴露和放大了已經(jīng)存在但被忽視或誤解的隱性偏見。人工智能本身不受顏色、性別、年齡和其他偏見的影響。它不易受到困擾人類的邏輯謬誤和認知偏見的影響。我們看到人工智能存在偏見的唯一原因是人類有時會用啟發(fā)式錯誤和有偏見的數(shù)據(jù)來訓練它。

自從發(fā)現(xiàn)上述偏見以來,所有主要的技術公司都在努力改進數(shù)據(jù)集并消除偏見。消除人工智能偏見的一種方法?——通過使用人工智能!如果這似乎不太可能,我們繼續(xù)探討。

使用人工智能消除招聘中的偏見

經(jīng)典的例子可以在工作機會中找到。在最令人垂涎的就業(yè)機會范圍內,眾所周知,女性和有色人種的代表性不足。這種現(xiàn)象是自我延續(xù)的,因為新員工成為高級領導者,他們開始負責招聘。親和偏見確?!跋裎疫@樣的人”繼續(xù)被錄用,而歸因偏見則根據(jù)過去員工的表現(xiàn)證明這些選擇是正確的。

但當人工智能在招聘中發(fā)揮更大作用時,這種情況可能會改變。像Textio、Gender Decoder和Ongig這樣的工具使用人工智能來仔細檢查關于性別和其他特征的隱藏偏見。Knockri、Ceridian和Gapjumpers使用人工智能刪除或忽略識別性別、國籍、膚色和年齡的特征,這樣招聘經(jīng)理就可以只關注求職者的資格和經(jīng)驗。其中一些解決方案還通過客觀評估候選人的軟技能或改變候選人的電話聲音來掩蓋他們的性別,從而減少了面試過程中的近因偏見、親和力偏見和性別偏見。

用人工智能消除風險投資決策中的偏見

在風險投資界也可以采取類似的做法。在風險投資界,男性占合伙人的 80% ,而女性只獲得2.2%的投資,盡管她們是40%新創(chuàng)業(yè)公司的創(chuàng)始人。例如,英國創(chuàng)業(yè)加速器Founders Factory編寫了一款軟件,根據(jù)可識別的創(chuàng)業(yè)成功特征對項目候選人進行篩選。同樣,由女性運營的非盈利機構F4capital開發(fā)了一套“創(chuàng)業(yè)公司 FICO 評分 ”(FICO score for Startups),用來評估初創(chuàng)公司的成熟度、機會和風險,以消除風險決策過程中的偏見。這種方法應該被廣泛采用,不僅因為它是一件合乎道德的事情,還因為它帶來了更好的回報——比沒有人工智能幫助的投資高出184% 。

差減少人工智能在醫(yī)學領域的認知偏差

人工智能還可以幫助在醫(yī)療保健方面做出更好的決策。例如,醫(yī)療診斷公司 Flow Health 致力于使用人工智能來克服醫(yī)生經(jīng)常用來診斷病人的認知偏見。例如,“可獲得性啟發(fā) ”鼓勵醫(yī)生做出常見但有時不正確的診斷,而“錨定啟發(fā)式”導致他們堅持不正確的初始診斷,即使新信息與他們相矛盾。我相信人工智能將成為快速發(fā)展的數(shù)據(jù)驅動的個性化醫(yī)療世界的重要組成部分。

人工智能可以減少常見偏見的其他領域

人工智能甚至可以幫助減少不那么惡性、但仍然非常強大的偏見,這些偏見經(jīng)常會蒙蔽我們的商業(yè)判斷。想想(在英語國家)對用英語發(fā)布的信息的偏見,創(chuàng)業(yè)公司對年紀較大的人的偏見,盡管他們的知識和經(jīng)驗更豐富;制造業(yè)傾向于使用相同的供應商和方法,而不是嘗試新的、可能更好的方法。別忘了,在經(jīng)濟困難時期,供應鏈管理的高管和華爾街的投資者會出于情感因素做出短期決策。

讓人工智能在所有這些領域發(fā)揮作用,可以有效地檢查決策過程中未被識別的偏見。

人工智能甚至可以用來減少人工智能的偏見

如果犯錯是人的本性,人工智能可能是我們所需的解決方案,以避免我們隱藏的偏見帶來的代價高昂和不道德的后果。但這些偏見對人工智能本身的干擾又如何呢?如果人工智能誤讀了有偏見的數(shù)據(jù),并放大了有偏見的人類啟發(fā)式,它怎么可能是一個有用的解決方案?

現(xiàn)在有一些工具旨在消除隱含的人類和數(shù)據(jù)偏見,這些偏見悄悄地進入人工智能。What-If 工具由 Google 的 People and AI Research 團隊 (PAIR) 開發(fā),允許開發(fā)人員使用廣泛的“公平指標”庫來探索 AI 的性能,而 PWC 的BiasAnalyzer 工具、IBM Research 的AI Fairness 360工具和 O' Reilly 的每個LIME 工具都可以幫助我們識別 AI 代碼中是否存在偏見。

如果你是一名高級管理人員或董事會成員,正在考慮人工智能可能減少你組織中的偏見的方式,我敦促您將人工智能視為武器庫中一個有希望的新武器,而不是將其視為完全解決問題的靈丹妙藥。從整體和實際角度來說,你仍然需要建立減少偏見的基準,培訓你的員工識別和避免隱藏的偏見,并從客戶、供應商或顧問那里收集外部反饋。偏見審查不僅是一個好主意,在某些情況下,它們甚至是法律。

本文作者:Glenn Gow千家網(wǎng)編譯

免責聲明:本網(wǎng)站內容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內容可能涉嫌侵犯其知識產(chǎn)權或存在不實內容時,應及時向本網(wǎng)站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內容或斷開相關鏈接。

2022-07-18
人工智能可以幫助消除偏見嗎?
自從人工智能首次被部署在招聘、貸款審批、保險費建模、面部識別、執(zhí)法和一系列其他應用中以來,批評人士(有相當多的理由)指出了該技術的偏見傾向。

長按掃碼 閱讀全文