深色皮膚識別錯誤率降低20倍,微軟在改善“算法的偏見”

高層速讀

關(guān)鍵信息:微軟面部識別API更新,將深色皮膚識別錯誤率降低20倍,將所有女性面部識別的錯誤率降低9倍,它收集了不同膚色、性別和年齡的新數(shù)據(jù),提高了算法性別分類器的精確度。

關(guān)鍵意義:改善了算法模型中的偏見,為全球計算機視覺平臺的公平性貢獻了一份力。

深色皮膚識別錯誤率降低20倍,微軟在改善“算法的偏見”

在微軟今天發(fā)布的博客中,其宣布了一項面部識別API的更新,該更新將改善面部識別平臺識別不同膚色的能力,這也是計算機視覺平臺面臨的一個長期挑戰(zhàn)。

隨著這些更新,它能夠?qū)?strong>深色皮膚識別錯誤率降低20倍,將所有女性面部識別的錯誤率降低9倍。

多年來,面部識別系統(tǒng)一直存在種族偏見的敏感性。一項研究顯示,在非裔美國人的面孔上,來自安全廠商的面部識別技術(shù)被廣泛使用,但比識別其他膚色人種的準(zhǔn)確率要低5-10%;中國、日本、韓國的算法在識別白種人上也比黃種人有優(yōu)勢;2015年谷歌曾經(jīng)將軟件工程師的一位黑人朋友認定為大猩猩,而不得不站出來賠禮道歉。

深色皮膚識別錯誤率降低20倍,微軟在改善“算法的偏見”

為了解決這個問題,微軟的研究人員修改并擴展了臉部API的訓(xùn)練和數(shù)據(jù)集,并收集了不同膚色、性別和年齡的新數(shù)據(jù),提高了算法性別分類器的精確度。

微軟紐約研究實驗室高級研究員漢娜沃勒克在一份聲明中說:“我們討論了不同的方法來發(fā)現(xiàn)偏見和公平運作;我們討論了數(shù)據(jù)收集工作的種類,以使訓(xùn)練數(shù)據(jù)多樣化;我們與討論了在部署前對系統(tǒng)進行內(nèi)部測試的不同策略?!?/p>

根據(jù)微軟博客文章,該公司還在人工智能系統(tǒng)開發(fā)過程中建立了檢測和減輕不公平的試驗。微軟Bing團隊正與道德專家合作,探索如何在搜索結(jié)果中顯示“女性CEO的缺乏”。微軟指出,在《財富》500強中,只有不到5%的CEO是女性,而“CEO”的網(wǎng)頁搜索結(jié)果主要是男性的形象。

深色皮膚識別錯誤率降低20倍,微軟在改善“算法的偏見”

“如果我們正在的訓(xùn)練機器學(xué)習(xí)系統(tǒng)是由有偏見的,那么它做出的決策必然會復(fù)制它的偏見?!蔽掷湛苏f,“這是一個機會,讓我們真正思考我們在系統(tǒng)中反映的價值觀,以及它們是否是我們想要系統(tǒng)中反映的.”

幸運的是,微軟并不是唯一一家試圖將算法偏差最小化的公司。

今年5月,Facebook宣布了“公平流程”,該流程將自動提醒用戶,如果一種算法基于他或她的種族、性別或年齡對一個人做出了不公平的判斷;IBM Watson團隊最近的研究也集中在降低人工智能模型中的偏見方面,特別是面部識別。

極客網(wǎng)企業(yè)會員

免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責(zé)。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負任何法律責(zé)任。任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。

2018-06-27
深色皮膚識別錯誤率降低20倍,微軟在改善“算法的偏見”
高層速讀關(guān)鍵信息:微軟面部識別API更新,將深色皮膚識別錯誤率降低20倍。將所有女性面部識別的錯誤率降低9倍,它收集了不同膚色、性別和年齡的新數(shù)據(jù),提高了算法性別分類器的精確度。

長按掃碼 閱讀全文