AI將非洲人標(biāo)為大猩猩 創(chuàng)建無偏見機(jī)器人有多難?

網(wǎng)易科技訊 11月8日消息,據(jù)外媒報(bào)道,隨著人工智能(AI)與機(jī)器學(xué)習(xí)技術(shù)的日益成熟,它們被用于解決復(fù)雜問題的潛力也逐漸顯現(xiàn)出來,我們甚至有點(diǎn)兒期待,希望機(jī)器人能在人類失敗的領(lǐng)域取得突破,即在決策時拋開個人偏見。

但是最近出現(xiàn)的許多案例顯示,就像所有顛覆性技術(shù)那樣,機(jī)器學(xué)習(xí)被引入的同時,也出現(xiàn)了許多意想不到的挑戰(zhàn),有時候甚至產(chǎn)生錯誤、令人討厭的、冒犯性的后果,與人類社會信奉的道德和倫理標(biāo)準(zhǔn)截然不符。

這些故事聽起來可能很有意思,但它們卻促使我們反思AI技術(shù)對未來產(chǎn)生的影響。將來,機(jī)器人和AI將承擔(dān)起更重要的責(zé)任,甚至將為它們做出的錯誤決定負(fù)責(zé)。

在其核心領(lǐng)域,機(jī)器學(xué)習(xí)利用算法分析數(shù)據(jù)、提取模式以及學(xué)習(xí)和預(yù)測,并會基于收集到的見解做出決定。它已經(jīng)成為我們?nèi)粘I钪惺褂玫脑S多技術(shù)的基石,比如搜索引擎、面部識別應(yīng)用以及數(shù)字助理等。機(jī)器學(xué)習(xí)算法獲得的數(shù)據(jù)越多,它就會變得越聰明。這也就是科技公司千方百計(jì)收集更多用戶和消費(fèi)者數(shù)據(jù)的原因。

但是最終,機(jī)器學(xué)習(xí)只會保持其獲得的數(shù)據(jù)那樣聰明。這其中存在一個問題,因?yàn)橥瑯颖挥糜谟?xùn)練機(jī)器學(xué)習(xí)算法的數(shù)據(jù),也可能會讓它變得邪惡或存在偏見。就像所有孩童那樣,機(jī)器學(xué)習(xí)算法往往會選擇迎合其開發(fā)者的品味和偏見。更復(fù)雜的是,許多公司都以非常隱秘的方式運(yùn)行內(nèi)部算法,并把它們視為商業(yè)機(jī)密。

機(jī)器學(xué)習(xí)初創(chuàng)企業(yè)Beauty.ai今年舉行了世界上首場AI驅(qū)動的選美大賽。超過6000人遞交了自己的照片,AI通過對稱性、皺紋等因素評估這些人的魅力。這項(xiàng)比賽的原意是減少人類裁判的社會偏見,但結(jié)果令人感到失望。44位獲勝者中,絕大多數(shù)都是白人,只有少數(shù)亞洲人,深色皮膚人種的獲勝者僅有1人。1名研究人員解釋稱,問題是用于訓(xùn)練算法的照片樣本在種族方面存在不平衡性。

這并非機(jī)器算法首次出現(xiàn)偏見問題。今年年初,一種語言處理算法被發(fā)現(xiàn),在處理艾米麗、馬特等聽起來像白人的名字時,顯然比處理賈馬爾、埃博尼等黑人名字時更愉快。

此外,微軟此前被迫關(guān)閉了其聊天機(jī)器人Tay。它被設(shè)計(jì)模仿十幾歲女孩的行為,卻被發(fā)現(xiàn)滿口臟話。Tay原本被期望提取用戶評論,通過處理它們學(xué)習(xí)如何做出個性化回應(yīng)。但是用戶似乎對教授它種族歧視和納粹言論更感興趣。

可是,如果這些發(fā)生在敏感情況下,比如某人的生命或自由受到威脅時,將會如何?ProPublica5月份的研究顯示,在評估未來犯罪傾向時,佛羅里達(dá)州執(zhí)法機(jī)構(gòu)使用的算法對非洲裔的評分更高。

有關(guān)這類機(jī)器學(xué)習(xí)算法存在偏見的例子不勝枚舉,包括谷歌算法將非洲裔標(biāo)注為大猩猩,廣告投放引擎更少向女性展示高薪職位,新聞算法推廣假新聞和粗俗故事等。

在傳統(tǒng)軟件中,確定某個失誤是用戶錯誤還是設(shè)計(jì)缺陷非常簡單。但是機(jī)器學(xué)習(xí)并不那么透明,最大的挑戰(zhàn)之一就是難以確定責(zé)任。開發(fā)機(jī)器學(xué)習(xí)軟件與傳統(tǒng)編碼完全不同,訓(xùn)練算法與編寫代碼同樣重要。即使開發(fā)者也無法精確預(yù)測機(jī)器將會做出何種決定,有時候也會對結(jié)果感到驚訝。

當(dāng)Facebook被譴責(zé)在“趨勢主題”模塊中存在政治偏見時,事情變得更加復(fù)雜,因?yàn)檫@個模塊部分由機(jī)器學(xué)習(xí)驅(qū)動。當(dāng)美國共和黨總統(tǒng)提名人唐納德·特朗普(Donald Trump)譴責(zé)谷歌調(diào)整其搜索引擎結(jié)果,試圖抑制有關(guān)民主黨總統(tǒng)提名人希拉里·克林頓(Hillary Clinton)的負(fù)面新聞時,做出透明解釋和證明機(jī)器錯誤的確有點(diǎn)兒難。

當(dāng)關(guān)鍵決定權(quán)被賦予AI時,事情將會變得更加敏感。舉例來說,如果無人駕駛汽車撞倒1個行人,誰將被追究責(zé)任?司機(jī)(更精確地說車主)還是機(jī)器學(xué)習(xí)算法的開發(fā)者?

從數(shù)據(jù)庫中根除這些偏見是開發(fā)公正的機(jī)器學(xué)習(xí)算法的關(guān)鍵,但是開發(fā)平衡數(shù)據(jù)庫是非常復(fù)雜的任務(wù)。目前還沒有任何相關(guān)規(guī)則或標(biāo)準(zhǔn),可以用于評估用于訓(xùn)練機(jī)器學(xué)習(xí)算法的數(shù)據(jù)。有時候,研究人員利用和分享現(xiàn)成的框架和數(shù)據(jù)庫,盡管里面存在各種偏見。

一個解決方案就是創(chuàng)造可共享的、受到監(jiān)管的數(shù)據(jù)庫,它不歸任何單一實(shí)體所有,從而可預(yù)防任何人單方面操作數(shù)據(jù)。在這方面的顯著努力就是AI合作組織(Partnership on Artificial Intelligence)的成立,F(xiàn)acebook、亞馬遜、谷歌、IBM、微軟以及機(jī)器學(xué)習(xí)創(chuàng)新領(lǐng)域的其他公司嘗試解決AI和機(jī)器學(xué)習(xí)增長帶來的恐懼。這個組織的目標(biāo)包括,解決AI的倫理問題,確保AI被公開應(yīng)用前接受多元化審視。

另一個有趣的努力是伊隆·馬斯克(Elon Musk)創(chuàng)建的AI公司OpenAI,其目標(biāo)是令A(yù)I研究變得更透明,防止它變成作惡工具。

將來有一天,或許機(jī)器人會變得足夠聰明,可以解釋自己的行為,并糾正它們的錯誤。但我們據(jù)此目標(biāo)依然有很長的路要走。到那時,人類的責(zé)任將是預(yù)防訓(xùn)練AI的人類負(fù)面傾向被無限擴(kuò)大。

極客網(wǎng)企業(yè)會員

免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請進(jìn)一步核實(shí),并對任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負(fù)任何法律責(zé)任。任何單位或個人認(rèn)為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實(shí)內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實(shí)情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。

2016-11-10
AI將非洲人標(biāo)為大猩猩 創(chuàng)建無偏見機(jī)器人有多難?
據(jù)外媒報(bào)道,隨著人工智能(AI)與機(jī)器學(xué)習(xí)技術(shù)的日益成熟,它們被用于解決復(fù)雜問題的潛力也逐漸顯現(xiàn)出來,我們甚至有點(diǎn)兒期待,希望機(jī)器人能在人類失敗的領(lǐng)域取得突破,

長按掃碼 閱讀全文