歐洲新人工智能法案將加強(qiáng)倫理道德審核

隨著歐盟邁向?qū)嵤┤斯ぶ悄芊ò福斯ぶ悄軅惱淼赖聠栴}(如偏見、透明度和可解釋性)正變得越來越重要,該法案將有效規(guī)范人工智能和機(jī)器學(xué)習(xí)技術(shù)在所有行業(yè)的使用。人工智能專家表示,這是人工智能用戶熟悉道德概念的好時(shí)機(jī)。

歐洲最新版的《人工智能法案》于去年推出,目前正在迅速通過審查過程,最早可能在 2023 年實(shí)施。雖然該法律仍在制定中,但歐盟委員會(huì)似乎已準(zhǔn)備好大步監(jiān)管人工智能。

例如,法律將對(duì)人工智能系統(tǒng)的使用設(shè)定新要求,并完全禁止某些用例。所謂的高風(fēng)險(xiǎn)人工智能系統(tǒng),例如用于自動(dòng)駕駛汽車的人工智能系統(tǒng)以及教育、移民和就業(yè)的決策支持系統(tǒng),將要求用戶對(duì)人工智能應(yīng)用進(jìn)行影響評(píng)估和審計(jì)。某些 AI 用例將在數(shù)據(jù)庫中進(jìn)行密切跟蹤,而其他用例則需要外部審計(jì)員簽字才能使用。

總部位于賓夕法尼亞州紐敦的軟件工程公司 EPAM Systems 的數(shù)據(jù)分析咨詢主管 Nick Carrel 表示,作為 MLOps 參與或數(shù)據(jù)科學(xué)咨詢參與的一部分,對(duì)不可解釋性和可解釋性的需求很大。他說,歐盟的人工智能法案也在推動(dòng)企業(yè)尋求關(guān)于道德人工智能的洞察力和答案。

“現(xiàn)在對(duì)所謂的 ML Ops 有很多需求,這是一門操作機(jī)器學(xué)習(xí)模型的科學(xué)。我們非常認(rèn)為道德人工智能是這一過程的關(guān)鍵基礎(chǔ)之一,”Carrel說?!拔覀冞€有來自客戶的更多要求……因?yàn)樗麄兞私饬思磳⒃诮衲昴甑讎@人工智能系統(tǒng)生效的歐盟立法,他們希望做好準(zhǔn)備?!?/p>

不可解釋性和可解釋性是獨(dú)立但相關(guān)的概念。模型的可解釋性是指人類能夠理解和預(yù)測(cè)模型將做出何種決策的程度,而可解釋性是指準(zhǔn)確描述模型實(shí)際工作方式的能力。EPAM Systems 數(shù)據(jù)科學(xué)和機(jī)器學(xué)習(xí)部門的負(fù)責(zé)人 Andrey Derevyanka 說,你可以有一個(gè)沒有另一個(gè)。

“想象一下,你正在做一些實(shí)驗(yàn),也許是一些混合兩種液體的化學(xué)實(shí)驗(yàn)。這個(gè)實(shí)驗(yàn)是可以解釋的,因?yàn)?,你看到你在這里做了什么。你拿了一個(gè)物品,加上另一個(gè)物品,我們得到了結(jié)果,”Derevyanka 表示?!暗屵@個(gè)實(shí)驗(yàn)可以解釋,你需要知道化學(xué)反應(yīng),你需要知道反應(yīng)是如何產(chǎn)生的,是如何進(jìn)行的,你需要知道這個(gè)過程的內(nèi)部細(xì)節(jié)?!?/p>

Derevyanka 說,特別是深度學(xué)習(xí)模型可以解釋但有不能說明具體情況?!澳阌幸粋€(gè)黑盒子,它以某種方式運(yùn)作,但你知道你不知道里面是什么,”他說。“但你可以解釋:如果你給出這個(gè)輸入,你就會(huì)得到這個(gè)輸出?!?/p>消除偏見

在道德 AI 方面,偏見是另一個(gè)重要主題。EPAM Systems 數(shù)據(jù)和人工智能實(shí)踐主管 Umit Cakmak 表示,不可能完全消除數(shù)據(jù)中的偏見,但企業(yè)組織努力消除人工智能模型中的偏見很重要。

“這些事情必須隨著時(shí)間的推移進(jìn)行分析,”Cakmak 說?!斑@是一個(gè)過程,因?yàn)槠娨呀?jīng)融入歷史數(shù)據(jù)。沒有辦法從數(shù)據(jù)中清除偏差。因此,作為一家企業(yè),您必須設(shè)置一些特定的流程,以便您的決策隨著時(shí)間的推移變得更好,這將隨著時(shí)間的推移提高您的數(shù)據(jù)質(zhì)量,因此隨著時(shí)間的推移,您的偏見會(huì)越來越少?!?/p>

歐盟的人工智能法案將按風(fēng)險(xiǎn)對(duì)人工智能的使用進(jìn)行分類

可解釋性對(duì)于讓利益相關(guān)者(包括內(nèi)部或外部審計(jì)師,以及將聲譽(yù)置于危險(xiǎn)境地的客戶和高管)相信 AI 模型不會(huì)根據(jù)有偏見的數(shù)據(jù)做出錯(cuò)誤的決策非常重要。

Cakmak 說,文獻(xiàn)中有許多數(shù)據(jù)偏見泄漏到自動(dòng)決策系統(tǒng)中的例子,包括種族偏見出現(xiàn)在用于評(píng)估員工績效或從簡歷中挑選求職者的模型中。能夠展示模型如何得出結(jié)論對(duì)于展示已采取措施消除模型中的數(shù)據(jù)偏差非常重要。

Cakmak 回憶起缺乏可解釋性如何導(dǎo)致一家醫(yī)療保健公司放棄為癌癥診斷開發(fā)的人工智能系統(tǒng)?!?a href="http://m.ygpos.cn/%E4%BA%BA%E5%B7%A5%E6%99%BA%E8%83%BD_1.html" target="_blank" class="keylink">人工智能在某種程度上發(fā)揮了作用,但隨后該項(xiàng)目被取消,因?yàn)樗麄儫o法建立對(duì)算法的信任和信心,”他說?!叭绻銦o法解釋為什么會(huì)出現(xiàn)這種結(jié)果,那么你就無法繼續(xù)治療?!?/p>

EPAM Systems 幫助企業(yè)以可信的方式實(shí)施人工智能。該公司通常會(huì)遵循一套特定的指導(dǎo)方針,從如何收集數(shù)據(jù)開始,到如何準(zhǔn)備機(jī)器學(xué)習(xí)模型,再到如何驗(yàn)證和解釋模型。Cakmak 說,確保 AI 團(tuán)隊(duì)成功通過并記錄這些檢查或“質(zhì)量門”是道德 AI 的一個(gè)重要元素。

道德與人工智能法案

波士頓咨詢集團(tuán)全球 GAMMA 首席人工智能道德官 Steven Mills 表示,規(guī)模最大、運(yùn)營最完善的企業(yè)已經(jīng)意識(shí)到需要負(fù)責(zé)任的人工智能。

然而,隨著人工智能法案越來越接近成為法律,我們將看到世界各地更多的公司加速他們負(fù)責(zé)任的人工智能項(xiàng)目,以確保他們不會(huì)違反不斷變化的監(jiān)管環(huán)境和新的期望。

“有很多公司已經(jīng)開始實(shí)施人工智能,并且意識(shí)到我們沒有像我們想要的那樣對(duì)所有潛在的意外后果抱有希望,我們需要盡快解決這個(gè)問題,”Mills說.“這是最重要的。人們并不覺得他們只是隨意的以及他們?nèi)绾螒?yīng)用它?!?/p>

以合乎道德的方式實(shí)施人工智能的壓力來自組織的高層。Mills說,在某些情況下,它來自外部投資者,他們不希望自己的投資風(fēng)險(xiǎn)因以不好的方式使用人工智能而受到損害。

他說:“我們看到了一種趨勢(shì),即投資者,無論是上市公司還是風(fēng)險(xiǎn)基金,都希望確保以負(fù)責(zé)任的方式構(gòu)建人工智能?!薄斑@可能并不明顯。這對(duì)每個(gè)人來說可能并不明顯。但在幕后,這些風(fēng)險(xiǎn)投資公司中的一些人正在考慮他們?cè)谀睦锿度胭Y金以確保這些初創(chuàng)公司以正確的方式做事?!?/p>

Carrel 表示,雖然目前《人工智能法案》的細(xì)節(jié)也很模糊,但該法律有可能明確人工智能的使用,這將使公司和消費(fèi)者都受益。

“我的第一反應(yīng)是這將是非常嚴(yán)格的,”Carrel 說,他在加入 EPAM Systems 之前在金融服務(wù)行業(yè)實(shí)施了機(jī)器學(xué)習(xí)模型?!岸嗄陙?,我一直在試圖突破金融服務(wù)決策的界限,突然間有一項(xiàng)立法出臺(tái),它會(huì)破壞我們所做的工作。

但他越是關(guān)注未決法律,就越喜歡他所看到的。

“我認(rèn)為這也將逐漸增加公眾對(duì)不同行業(yè)使用人工智能的信心,”Carrel說?!傲⒎ㄒ?guī)定你必須在歐盟注冊(cè)高風(fēng)險(xiǎn)人工智能系統(tǒng),這意味著你知道在某處將有一個(gè)非常清晰的清單,列出正在使用的每一個(gè)人工智能高風(fēng)險(xiǎn)系統(tǒng)。這為審計(jì)人員提供了強(qiáng)大的權(quán)力,這意味著頑皮的男孩和壞玩家將逐漸受到懲罰,希望隨著時(shí)間的推移,我們會(huì)為那些想要將人工智能和機(jī)器學(xué)習(xí)用于更好的事業(yè)的人留下最佳實(shí)踐——負(fù)責(zé)任的方式?!?/p>

免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請(qǐng)進(jìn)一步核實(shí),并對(duì)任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對(duì)有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識(shí)產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書面權(quán)利通知或不實(shí)情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會(huì)依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。

2022-06-14
歐洲新人工智能法案將加強(qiáng)倫理道德審核
歐洲最新版的《人工智能法案》于去年推出,目前正在迅速通過審查過程,最早可能在 2023 年實(shí)施,該法案將有效規(guī)范人工智能和機(jī)器學(xué)習(xí)技術(shù)在所有行業(yè)的使用。

長按掃碼 閱讀全文