AI也會有偏見和歧視 IBM建立百萬人臉數(shù)據(jù)希望解決AI偏見

科技中立,但人制造出來的 AI 卻可能帶有偏見或歧視。AI 偏見情況像是性別歧視、種族歧視,例如面部偵測算法在識別白人時的準(zhǔn)確率比識別黑人高許多,男性跟女性類別也存在類似問題,讓軟件識別犯罪嫌犯人選、企業(yè)挑選求職者時,也曾引發(fā)歧視問題。

為了減少這方面的偏差,IBM 研究院剛剛打造了一套更加多樣化的“百萬人臉數(shù)據(jù)集”。近年來,隨著智能手機的普及,面部識別已經(jīng)在許多領(lǐng)域得到了廣泛的運用。然而在一些測試中,某些看似很優(yōu)秀的 AI,竟然也會敗下陣來。

憑借全新的“百萬多樣性人臉數(shù)據(jù)集”,AI 開發(fā)者將能夠充分考慮到多樣性的面部特征(DiF)。

為使面部識別能夠按照要求執(zhí)行(既公平又準(zhǔn)確),訓(xùn)練用的數(shù)據(jù),必須提供足夠的平衡和覆蓋。

它應(yīng)該足夠大、且多樣化,以便了解更多類型的面部固有差異。圖像必須反映我們在世界中看到的面部特征的多樣性。

<script id="p517107" src="http://pdlib.pconline.com.cn/product/service/ls_show_product_item.jsp?id=517107&style=n-o&tagId=p517107&sid=0" defer ></script> 

免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責(zé)。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負任何法律責(zé)任。任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。

2019-02-02
AI也會有偏見和歧視 IBM建立百萬人臉數(shù)據(jù)希望解決AI偏見
科技中立,但人制造出來的 AI 卻可能帶有偏見或歧視。AI 偏見情況像是性別歧視、種族歧視,例如面部偵測算法在識別白人時的準(zhǔn)確率比識別黑人高許多,男性跟女性類別也存在類似問題,讓軟件識別犯罪嫌犯人選、企業(yè)挑

長按掃碼 閱讀全文