什么是可解釋AI? | 智能百科

什么是可解釋AI? | 智能百科

隨著人工智能(AI)變得越來越復(fù)雜并在社會上得到廣泛采用,一組最關(guān)鍵的流程和方法是可解釋AI,有時也稱為XAI。

可解釋AI可以定義為:

一組幫助人類用戶理解和信任機(jī)器學(xué)習(xí)算法結(jié)果的過程和方法。

可猜到,這種可解釋性是非常重要的。因為AI算法控制了許多領(lǐng)域,這帶來了偏見、錯誤算法和其他問題的風(fēng)險。通過可解釋性實現(xiàn)透明度,世界可以真正利用人工智能的力量。

可解釋AI,顧名思義,有助于描述一個AI模型、其影響和潛在的偏見。其還在描述模型的準(zhǔn)確性、公平性、透明度和人工智能驅(qū)動決策過程的結(jié)果方面發(fā)揮著作用。

現(xiàn)今的AI驅(qū)動的組織應(yīng)該始終采用可解釋AI流程,以幫助在生產(chǎn)中建立對AI模型的信任和信心。在當(dāng)今的人工智能環(huán)境中,可解釋AI也是成為負(fù)責(zé)任的企業(yè)的關(guān)鍵。

由于如今的人工智能系統(tǒng)非常先進(jìn),人類通常會執(zhí)行一個計算過程,以追溯算法是如何得到結(jié)果的。這個過程變成了一個“黑匣子”,意味著其是無法被理解的。當(dāng)這些無法解釋的模型直接從數(shù)據(jù)中開發(fā)出來時,沒有人能理解其中發(fā)生了什么。

通過可解釋AI來了解AI系統(tǒng)是如何運行的,開發(fā)者可以確保系統(tǒng)能夠正常工作。其還可以幫助確保模型符合監(jiān)管標(biāo)準(zhǔn),并為模型提供挑戰(zhàn)或更改的機(jī)會。

AI和XAI之間的差異

一些關(guān)鍵的差異有助于將“常規(guī)”AI與可解釋AI區(qū)分開來,但最重要的是,XAI實現(xiàn)了特定的技術(shù)和方法,以幫助確保ML過程中的每個決策都是可跟蹤和可解釋的。相比之下,常規(guī)AI通常使用ML算法得到結(jié)果,但不可能完全理解算法是如何得到結(jié)果的。在常規(guī)AI的情況下,很難檢查準(zhǔn)確性,導(dǎo)致控制、問責(zé)和可審核性的喪失。

可解釋AI的好處

任何希望采用可解釋AI的組織都有很多好處,例如:

更快的結(jié)果:可解釋AI使組織能夠系統(tǒng)地監(jiān)控和管理模型,以優(yōu)化業(yè)務(wù)結(jié)果??梢猿掷m(xù)地評估和改進(jìn)模型性能,并微調(diào)模型開發(fā)。降低風(fēng)險:通過采用可解釋的AI流程,可以確保AI模型是可解釋的和透明的??梢怨芾矸ㄒ?guī)、合規(guī)性、風(fēng)險和其他需求,同時最大限度地減少手動檢查的開銷。所有這些也有助于減少意外偏見的風(fēng)險。建立信任:可解釋AI有助于在生產(chǎn)AI中建立信任。AI模型可以迅速投入生產(chǎn),可以保證可解釋性,并且可以簡化模型評估過程,并使其更加透明。

可解釋AI技術(shù)

有一些XAI技術(shù)是所有組織都應(yīng)該考慮的,有三種主要方法:預(yù)測準(zhǔn)確、可追溯性和決策理解。

第一種方法是預(yù)測的準(zhǔn)確性,是在日常操作中成功使用人工智能的關(guān)鍵??梢赃M(jìn)行模擬,并將XAI輸出與訓(xùn)練數(shù)據(jù)集中的結(jié)果進(jìn)行比較,這有助于確定預(yù)測的準(zhǔn)確性。實現(xiàn)這一點的一種比較流行的技術(shù)被稱為本地可解釋模型-無關(guān)解釋(LIME),這是一種通過機(jī)器學(xué)習(xí)算法解釋分類器預(yù)測的技術(shù)。第二種方法是可追溯性,其通過限制決策的制定方式,以及為機(jī)器學(xué)習(xí)規(guī)則和特征建立更狹窄的范圍來實現(xiàn)。最常見的可追溯性技術(shù)之一是DeepLIFT,即深度學(xué)習(xí)重要特征。DeepLIFT將每個神經(jīng)元的激活與其參考神經(jīng)元進(jìn)行比較,同時演示每個激活神經(jīng)元之間的可追溯鏈接。其還顯示了彼此之間的依賴關(guān)系。第三種方法是決策理解,與前兩種方法不同,其是以人為中心的。決策理解包括教育組織,特別是與AI合作的團(tuán)隊,使他們能夠理解AI如何以及為什么做出決策。這種方法對于在系統(tǒng)中建立信任至關(guān)重要。

可解釋AI原則

為了更好地理解XAI及其原則,隸屬于美國商務(wù)部的美國國家標(biāo)準(zhǔn)研究院(NIST)提供了可解釋AI的四項原則的定義:

AI系統(tǒng)應(yīng)該為每個輸出提供證據(jù)、支持或推理。AI系統(tǒng)應(yīng)該給出用戶能夠理解的解釋。解釋應(yīng)該準(zhǔn)確地反映系統(tǒng)用于達(dá)到其輸出的過程。AI系統(tǒng)應(yīng)該只在其設(shè)計的條件下運行,當(dāng)其對結(jié)果缺乏足夠的信心時,不應(yīng)該提供輸出。

這些原則可以進(jìn)一步組織為:

有意義:為了實現(xiàn)有意義的原則,用戶應(yīng)該理解所提供的解釋。這也意味著,在不同類型的用戶使用AI算法的情況下,可能會有多種解釋。例如,在自動駕駛汽車的情況下,一種解釋可能是這樣的……“人工智能把路上的塑料袋歸類為石頭,因此采取行動避免撞到它?!彪m然這個例子適用于驅(qū)動程序,但對于希望糾正該問題的AI開發(fā)人員來說并不是很有用。在這種情況下,開發(fā)人員必須理解為什么會出現(xiàn)錯誤分類。解釋準(zhǔn)確度:與輸出準(zhǔn)確度不同,解釋準(zhǔn)確度涉及AI算法準(zhǔn)確解釋其是如何達(dá)到輸出的。例如,如果貸款批準(zhǔn)算法根據(jù)申請的收入來解釋決定,而實際上其是基于申請人的居住地,那么這個解釋將是不準(zhǔn)確的。知識限制:AI的知識限制可以通過兩種方式達(dá)到,其涉及到系統(tǒng)專業(yè)知識之外的輸入。例如,如果構(gòu)建一個系統(tǒng)來對鳥類種類進(jìn)行分類,給予其一張“蘋果”圖片,其應(yīng)該能夠解釋輸入不是一只鳥。如果給系統(tǒng)一張模糊的圖片,其應(yīng)該能夠報告其無法識別圖像中的鳥,或者其識別具有非常低的置信度。

數(shù)據(jù)在可解釋AI中的作用

可解釋AI最重要的組成部分之一是數(shù)據(jù)。

根據(jù)Google的說法,關(guān)于數(shù)據(jù)和可解釋AI,“一個AI系統(tǒng)最好通過底層的訓(xùn)練數(shù)據(jù)和訓(xùn)練過程,以及產(chǎn)生的AI模型來理解?!边@種理解依賴于將經(jīng)過訓(xùn)練的AI模型映射到用于訓(xùn)練其精確數(shù)據(jù)集的能力,以及密切檢查數(shù)據(jù)的能力。

為了增強模型的可解釋性,重要的是要注意訓(xùn)練數(shù)據(jù)。團(tuán)隊?wèi)?yīng)該確定用于訓(xùn)練算法的數(shù)據(jù)的來源、獲取數(shù)據(jù)的合法性和道德規(guī)范、數(shù)據(jù)中的任何潛在偏見,以及可以采取哪些措施來減輕任何偏見。

數(shù)據(jù)和XAI的另一個關(guān)鍵方面是,應(yīng)該排除與系統(tǒng)無關(guān)的數(shù)據(jù)。為了實現(xiàn)這一點,不相關(guān)的數(shù)據(jù)必須不包含在訓(xùn)練集或輸入數(shù)據(jù)中。

Google建議了一套實現(xiàn)可解釋性和問責(zé)制的做法:

計劃選擇以追求可解釋性將可解釋性視為用戶體驗的核心部分設(shè)計可解釋的模型選擇指標(biāo)以反映最終目標(biāo)和最終任務(wù)了解訓(xùn)練過的模型與模型用戶溝通解釋進(jìn)行大量測試,以確保AI系統(tǒng)按照預(yù)期工作

通過遵循這些推薦的做法,組織可以確保實現(xiàn)可解釋AI。這對于當(dāng)今環(huán)境中任何AI驅(qū)動的組織來說都是關(guān)鍵。

----------------------------

峰會預(yù)告

近期,由千家網(wǎng)主辦的2022年第23屆中國國際建筑智能化峰會將正式拉開帷幕,本屆峰會主題為“數(shù)智賦能,碳索新未來”,屆時將攜手全球知名建筑智能化品牌及專家,共同分享AI、云計算、大數(shù)據(jù)、IoT、智慧城市、智能家居、智慧安防等熱點話題與最新技術(shù)應(yīng)用,并探討如何打造“更低碳、更安全、更穩(wěn)定、更開放”的行業(yè)生態(tài),助力“雙碳”目標(biāo)的實現(xiàn)。

歡迎建筑智能化行業(yè)同仁報名參會,分享交流!

報名方式

上海站(11月23日):https://www.huodongxing.com/event/3638582473900

北京站(11月25日):https://www.huodongxing.com/event/4638577546900

廣州站(12月08日):https://www.huodongxing.com/event/2638587914600

成都站(12月20日):https://www.huodongxing.com/event/5657854318600

西安站(12月22日):https://www.huodongxing.com/event/4638585444400

更多2022年峰會信息,詳見峰會官網(wǎng):http://summit.qianjia.com/

免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請進(jìn)一步核實,并對任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負(fù)任何法律責(zé)任。任何單位或個人認(rèn)為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。

2022-11-04
什么是可解釋AI? | 智能百科
隨著人工智能(AI)變得越來越復(fù)雜并在社會上得到廣泛采用,一組最關(guān)鍵的流程和方法是可解釋AI,有時也稱為XAI。

長按掃碼 閱讀全文