AI將非洲人標為大猩猩 創(chuàng)建無偏見機器人有多難?

網(wǎng)易科技訊 11月8日消息,據(jù)外媒報道,隨著人工智能(AI)與機器學習技術(shù)的日益成熟,它們被用于解決復(fù)雜問題的潛力也逐漸顯現(xiàn)出來,我們甚至有點兒期待,希望機器人能在人類失敗的領(lǐng)域取得突破,即在決策時拋開個人偏見。

但是最近出現(xiàn)的許多案例顯示,就像所有顛覆性技術(shù)那樣,機器學習被引入的同時,也出現(xiàn)了許多意想不到的挑戰(zhàn),有時候甚至產(chǎn)生錯誤、令人討厭的、冒犯性的后果,與人類社會信奉的道德和倫理標準截然不符。

這些故事聽起來可能很有意思,但它們卻促使我們反思AI技術(shù)對未來產(chǎn)生的影響。將來,機器人和AI將承擔起更重要的責任,甚至將為它們做出的錯誤決定負責。

在其核心領(lǐng)域,機器學習利用算法分析數(shù)據(jù)、提取模式以及學習和預(yù)測,并會基于收集到的見解做出決定。它已經(jīng)成為我們?nèi)粘I钪惺褂玫脑S多技術(shù)的基石,比如搜索引擎、面部識別應(yīng)用以及數(shù)字助理等。機器學習算法獲得的數(shù)據(jù)越多,它就會變得越聰明。這也就是科技公司千方百計收集更多用戶和消費者數(shù)據(jù)的原因。

但是最終,機器學習只會保持其獲得的數(shù)據(jù)那樣聰明。這其中存在一個問題,因為同樣被用于訓練機器學習算法的數(shù)據(jù),也可能會讓它變得邪惡或存在偏見。就像所有孩童那樣,機器學習算法往往會選擇迎合其開發(fā)者的品味和偏見。更復(fù)雜的是,許多公司都以非常隱秘的方式運行內(nèi)部算法,并把它們視為商業(yè)機密。

機器學習初創(chuàng)企業(yè)Beauty.ai今年舉行了世界上首場AI驅(qū)動的選美大賽。超過6000人遞交了自己的照片,AI通過對稱性、皺紋等因素評估這些人的魅力。這項比賽的原意是減少人類裁判的社會偏見,但結(jié)果令人感到失望。44位獲勝者中,絕大多數(shù)都是白人,只有少數(shù)亞洲人,深色皮膚人種的獲勝者僅有1人。1名研究人員解釋稱,問題是用于訓練算法的照片樣本在種族方面存在不平衡性。

這并非機器算法首次出現(xiàn)偏見問題。今年年初,一種語言處理算法被發(fā)現(xiàn),在處理艾米麗、馬特等聽起來像白人的名字時,顯然比處理賈馬爾、埃博尼等黑人名字時更愉快。

此外,微軟此前被迫關(guān)閉了其聊天機器人Tay。它被設(shè)計模仿十幾歲女孩的行為,卻被發(fā)現(xiàn)滿口臟話。Tay原本被期望提取用戶評論,通過處理它們學習如何做出個性化回應(yīng)。但是用戶似乎對教授它種族歧視和納粹言論更感興趣。

可是,如果這些發(fā)生在敏感情況下,比如某人的生命或自由受到威脅時,將會如何?ProPublica5月份的研究顯示,在評估未來犯罪傾向時,佛羅里達州執(zhí)法機構(gòu)使用的算法對非洲裔的評分更高。

有關(guān)這類機器學習算法存在偏見的例子不勝枚舉,包括谷歌算法將非洲裔標注為大猩猩,廣告投放引擎更少向女性展示高薪職位,新聞算法推廣假新聞和粗俗故事等。

在傳統(tǒng)軟件中,確定某個失誤是用戶錯誤還是設(shè)計缺陷非常簡單。但是機器學習并不那么透明,最大的挑戰(zhàn)之一就是難以確定責任。開發(fā)機器學習軟件與傳統(tǒng)編碼完全不同,訓練算法與編寫代碼同樣重要。即使開發(fā)者也無法精確預(yù)測機器將會做出何種決定,有時候也會對結(jié)果感到驚訝。

當Facebook被譴責在“趨勢主題”模塊中存在政治偏見時,事情變得更加復(fù)雜,因為這個模塊部分由機器學習驅(qū)動。當美國共和黨總統(tǒng)提名人唐納德·特朗普(Donald Trump)譴責谷歌調(diào)整其搜索引擎結(jié)果,試圖抑制有關(guān)民主黨總統(tǒng)提名人希拉里·克林頓(Hillary Clinton)的負面新聞時,做出透明解釋和證明機器錯誤的確有點兒難。

當關(guān)鍵決定權(quán)被賦予AI時,事情將會變得更加敏感。舉例來說,如果無人駕駛汽車撞倒1個行人,誰將被追究責任?司機(更精確地說車主)還是機器學習算法的開發(fā)者?

從數(shù)據(jù)庫中根除這些偏見是開發(fā)公正的機器學習算法的關(guān)鍵,但是開發(fā)平衡數(shù)據(jù)庫是非常復(fù)雜的任務(wù)。目前還沒有任何相關(guān)規(guī)則或標準,可以用于評估用于訓練機器學習算法的數(shù)據(jù)。有時候,研究人員利用和分享現(xiàn)成的框架和數(shù)據(jù)庫,盡管里面存在各種偏見。

一個解決方案就是創(chuàng)造可共享的、受到監(jiān)管的數(shù)據(jù)庫,它不歸任何單一實體所有,從而可預(yù)防任何人單方面操作數(shù)據(jù)。在這方面的顯著努力就是AI合作組織(Partnership on Artificial Intelligence)的成立,F(xiàn)acebook、亞馬遜、谷歌、IBM、微軟以及機器學習創(chuàng)新領(lǐng)域的其他公司嘗試解決AI和機器學習增長帶來的恐懼。這個組織的目標包括,解決AI的倫理問題,確保AI被公開應(yīng)用前接受多元化審視。

另一個有趣的努力是伊隆·馬斯克(Elon Musk)創(chuàng)建的AI公司OpenAI,其目標是令A(yù)I研究變得更透明,防止它變成作惡工具。

將來有一天,或許機器人會變得足夠聰明,可以解釋自己的行為,并糾正它們的錯誤。但我們據(jù)此目標依然有很長的路要走。到那時,人類的責任將是預(yù)防訓練AI的人類負面傾向被無限擴大。

極客網(wǎng)企業(yè)會員

免責聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關(guān)資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負任何法律責任。任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。

2016-11-10
AI將非洲人標為大猩猩 創(chuàng)建無偏見機器人有多難?
據(jù)外媒報道,隨著人工智能(AI)與機器學習技術(shù)的日益成熟,它們被用于解決復(fù)雜問題的潛力也逐漸顯現(xiàn)出來,我們甚至有點兒期待,希望機器人能在人類失敗的領(lǐng)域取得突破,

長按掃碼 閱讀全文