用更好的人工智能建設更美好的社會

ByMIT Technology Review Insights

人工智能 (AI) 具有巨大的潛力,可以通過創(chuàng)新來改善社會的方方面面,從傳統(tǒng)工程系統(tǒng)到醫(yī)療保健,再到藝術和娛樂領域的創(chuàng)意過程。例如,在好萊塢,制片廠正在使用人工智能來揭示和衡量劇本中的偏見——制片人和編劇需要這些工具來創(chuàng)造更公平和更具包容性的媒體。

然而,人工智能的智能程度取決于它所訓練的數(shù)據(jù),而這些數(shù)據(jù)反映了現(xiàn)實生活中的偏見。為了避免長期存在刻板印象和排他性,技術人員正在解決現(xiàn)實生活和創(chuàng)新中的公平和包容問題。

人類天生的偏見

由于技術人員希望使用 AI 來尋找以人為中心的解決方案來優(yōu)化行業(yè)實踐和日常生活,因此,注意我們與生俱來的偏見可能會產(chǎn)生意想不到的后果至關重要。

“作為人類,我們有很大的偏見,”德勤人工智能研究所全球負責人、德勤技術和人工智能倫理負責人Ammanath說?!半S著這些偏見融入系統(tǒng),社會各部分很可能被拋在后面——代表性不足的少數(shù)族裔,無法使用某些工具的人——這可能會導致世界上更多的不平等?!?

如果系統(tǒng)是用有偏見的數(shù)據(jù)訓練出來的,或者研究人員沒有考慮到他們自己的觀點如何影響研究方向,那么出發(fā)點是好的項目——創(chuàng)造平等的結果或減輕過去的不平等——最終仍可能產(chǎn)生偏見。

Ammanath表示,到目前為止,對 AI 偏見的調整通常是對發(fā)現(xiàn)有偏見的算法或事后出現(xiàn)的代表性不足的人口統(tǒng)計數(shù)據(jù)做出的反應。但是,企業(yè)現(xiàn)在必須學習如何積極主動,盡早緩解這些問題,并為他們的人工智能工作中的失誤承擔責任。

人工智能中的算法偏差

人工智能中,偏見以算法偏見的形式出現(xiàn)?!八惴ㄆ钍菢嫿?AI 模型的一系列挑戰(zhàn),”惠普實驗室首席架構師兼惠普企業(yè) (HPE) 副總裁 Kirk Bresniker 解釋說?!拔覀兛赡軙龅教魬?zhàn),因為我們的算法無法處理不同的輸入,或者因為我們沒有收集到足夠廣泛的數(shù)據(jù)集來整合到我們的模型訓練中。無論哪種情況,我們都沒有足夠的數(shù)據(jù)?!?/p>

算法偏差也可能來自不準確的處理、數(shù)據(jù)被修改或有人注入錯誤信號。無論有意與否,這種偏見都會導致不公平的結果,可能會賦予一個群體特權或完全排除另一個群體。

例如,Ammanath 描述了一種算法,旨在識別不同類型的鞋子,例如人字拖、涼鞋、正裝鞋和運動鞋。然而,當它發(fā)布時,該算法無法識別帶高跟鞋的女鞋。開發(fā)團隊是一群剛畢業(yè)的大學畢業(yè)生——都是男性——他們從沒想過用女鞋訓練它。

“這是一個微不足道的例子,但你意識到數(shù)據(jù)集是有限的,”Ammanath 說?!艾F(xiàn)在考慮使用歷史數(shù)據(jù)來診斷疾病或疾病的類似算法。如果它沒有針對某些體型、某些性別或某些種族進行訓練怎么辦?這些影響是巨大的。”

“至關重要的是,她說,如果你沒有那種多樣性,你就會錯過某些場景?!?/p>更好的人工智能意味著自我監(jiān)管和道德準則

簡單地獲取更多(和更多樣化)的數(shù)據(jù)集是一項艱巨的挑戰(zhàn),尤其是在數(shù)據(jù)變得更加集中的情況下。數(shù)據(jù)共享帶來了許多問題,其中最重要的是安全和隱私。

科羅拉多大學博爾德分校媒體研究助理教授 Nathan Schneider 表示:“目前,我們面臨的情況是,個人用戶的權力遠低于收集和處理其數(shù)據(jù)的大型公司。”

擴展的法律和法規(guī)很可能最終會規(guī)定何時以及如何共享和使用數(shù)據(jù)。但是,創(chuàng)新不會等待立法者。目前,人工智能開發(fā)組織有責任成為優(yōu)秀的數(shù)據(jù)管家,保護個人隱私,同時努力減少算法偏差。德勤的 Ammanath 表示,由于技術成熟得如此之快,不可能依靠法規(guī)來涵蓋所有可能的情況?!拔覀儗⑦M入一個在遵守現(xiàn)有法規(guī)和自我監(jiān)管之間取得平衡的時代?!?/p>

這種自我監(jiān)管意味著提高構建人工智能解決方案的整個技術供應鏈的標準,從數(shù)據(jù)到培訓再到使這些解決方案成為可能所需的基礎設施。此外,企業(yè)需要為跨部門的個人創(chuàng)造途徑,以提出對偏見的擔憂。雖然不可能完全消除偏見,但企業(yè)必須定期審核其人工智能解決方案的有效性。

由于人工智能的高度情景語境性質,每家企業(yè)的自我監(jiān)管看起來都不同。例如,HPE 制定了道德 AI 準則。來自整個公司的各種不同的人花了將近一年的時間共同制定公司的人工智能原則,然后與廣泛的員工一起審查這些原則,以確保它們可以被遵循并且它們對企業(yè)文化有意義。

HPE 的 Bresniker 說:“我們希望提高對這些問題的一般理解,然后收集最佳實踐。這是每個人的工作——在這個領域有足夠的認知?!?

人工智能技術已經(jīng)成熟,從研究發(fā)展到實際應用和價值創(chuàng)造,遍及所有行業(yè)。人工智能在社會上的日益普及意味著企業(yè)現(xiàn)在有道德責任提供強大的、包容的和可訪問的解決方案。這種責任促使組織(有時是第一次)檢查他們拉入流程的數(shù)據(jù)。Bresniker說:“我們希望人們能建立起這種遠見,對輸入的數(shù)據(jù)有可衡量的信心?!薄八麄冇心芰ψ柚钩掷m(xù)的系統(tǒng)性不平等,為更美好的未來創(chuàng)造公平的結果?!?/p>

免責聲明:本網(wǎng)站內容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內容可能涉嫌侵犯其知識產(chǎn)權或存在不實內容時,應及時向本網(wǎng)站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內容或斷開相關鏈接。

2022-06-08
用更好的人工智能建設更美好的社會
通過去中心化數(shù)據(jù)和減少算法偏差創(chuàng)建更公平和包容的人工智能有助于提高公平性。

長按掃碼 閱讀全文