專家視點(diǎn):沒(méi)有監(jiān)管的AI會(huì)產(chǎn)生倫理偏見(jiàn)

透明度通常在道德商業(yè)困境中發(fā)揮關(guān)鍵作用——我們擁有的信息越多,就越容易確定什么是可接受的和不可接受的結(jié)果。如果財(cái)務(wù)錯(cuò)位,誰(shuí)犯了會(huì)計(jì)錯(cuò)誤?如果數(shù)據(jù)被泄露,誰(shuí)負(fù)責(zé)保護(hù)數(shù)據(jù),他們的行為是否正確?

但是,當(dāng)我們尋找錯(cuò)誤或問(wèn)題的明確來(lái)源并且找不到人時(shí)會(huì)發(fā)生什么?這就是人工智能提出獨(dú)特的道德考慮的地方。

人工智能在組織中顯示出巨大的潛力,但它在很大程度上仍然是一種正在尋找問(wèn)題的解決方案。這是一個(gè)被誤解的概念,實(shí)際應(yīng)用尚未在企業(yè)內(nèi)完全實(shí)現(xiàn)。再加上許多公司缺乏以真正轉(zhuǎn)型的方式應(yīng)用人工智能的預(yù)算、人才和遠(yuǎn)見(jiàn),人工智能仍遠(yuǎn)未達(dá)到臨界規(guī)模,而且容易被濫用。

但僅僅因?yàn)槿斯ぶ悄茉谌粘I(yè)務(wù)中可能不是超可見(jiàn)的,并不意味著它在您的組織內(nèi)的某個(gè)地方?jīng)]有發(fā)揮作用。就像商業(yè)中的許多其他道德困境一樣,人工智能中的道德失誤經(jīng)常發(fā)生在陰暗處。無(wú)論有意與否,人工智能項(xiàng)目或應(yīng)用打破道德界限的后果可能是噩夢(mèng)。避免人工智能中的道德失誤的關(guān)鍵是從一開始就對(duì)項(xiàng)目進(jìn)行公司治理。

以透明和信任構(gòu)建人工智能

到目前為止,我們都熟悉 AI 出錯(cuò)的流行示例。對(duì)于深色皮膚的顧客不能正常工作的皂液器,對(duì)白種人來(lái)說(shuō)更準(zhǔn)確的脈搏血氧儀,甚至預(yù)測(cè)罪犯是否會(huì)重新入獄的算法,都是人工智能(可以說(shuō)是無(wú)意中)存在偏見(jiàn)的故事。

這些情況不僅會(huì)引起糟糕的頭條新聞和社交媒體的強(qiáng)烈反對(duì),而且還會(huì)破壞更合法的人工智能用例,如果繼續(xù)以不信任的態(tài)度看待這項(xiàng)技術(shù),這些用例將無(wú)法實(shí)現(xiàn)。例如,僅在醫(yī)療保健領(lǐng)域,人工智能就有可能改善癌癥診斷并標(biāo)記高風(fēng)險(xiǎn)再次入院的患者以獲得額外支持。除非我們學(xué)會(huì)建立人們對(duì)人工智能的信任,否則我們不會(huì)看到這些強(qiáng)大解決方案的全部好處。

當(dāng)我與同行和商業(yè)領(lǐng)袖談?wù)撊斯ぶ悄軙r(shí),我從一開始就支持人工智能工作中的透明度和治理理念。更具體地說(shuō),這是我的建議:

1、道德人工智能不可能在真空中發(fā)生

如果實(shí)施不當(dāng),人工智能應(yīng)用可能會(huì)產(chǎn)生重大的連鎖反應(yīng)。當(dāng)單個(gè)部門或 IT 團(tuán)隊(duì)開始在沒(méi)有監(jiān)督的情況下嘗試 AI 驅(qū)動(dòng)的流程時(shí),通常會(huì)發(fā)生這種情況。如果他們的實(shí)驗(yàn)出錯(cuò),團(tuán)隊(duì)是否意識(shí)到可能發(fā)生的倫理影響?部署是否符合公司現(xiàn)有的數(shù)據(jù)保留和訪問(wèn)策略?沒(méi)有監(jiān)督,很難回答這些問(wèn)題。

而且,如果沒(méi)有治理,如果確實(shí)發(fā)生了道德失誤,那么召集糾正道德失誤所需的利益相關(guān)者可能會(huì)更加困難。監(jiān)督不應(yīng)被視為對(duì)創(chuàng)新的壁壘,而是一項(xiàng)必要的檢查,以確保人工智能在一定的道德范圍內(nèi)運(yùn)行。監(jiān)督最終應(yīng)該落在擁有他們的組織中的首席數(shù)據(jù)官,或者如果 CDO 角色不存在,則由首席信息官負(fù)責(zé)。

2、始終有計(jì)劃

我們看到的關(guān)于 AI 項(xiàng)目出現(xiàn)問(wèn)題的最糟糕的頭條新聞通常有一個(gè)共同點(diǎn),即處于其中的公司在出現(xiàn)問(wèn)題時(shí)不準(zhǔn)備回答問(wèn)題或解釋決策。監(jiān)督可以解決這個(gè)問(wèn)題。當(dāng)組織的最高層存在對(duì) AI 的理解和健康哲學(xué)時(shí),就不太可能因問(wèn)題而措手不及。

3、盡職調(diào)查和測(cè)試是強(qiáng)制性的

通過(guò)更多的耐心和更多的測(cè)試,許多人工智能偏見(jiàn)的經(jīng)典例子都可以得到緩解。就像洗手液分配器的例子一樣,一家公司展示其新技術(shù)的興奮最終適得其反。在產(chǎn)品公開發(fā)布之前,進(jìn)一步的測(cè)試可能會(huì)發(fā)現(xiàn)這種偏見(jiàn)。此外,任何人工智能應(yīng)用程序都需要從一開始就進(jìn)行嚴(yán)格審查。由于人工智能的復(fù)雜性和不確定的潛力,必須戰(zhàn)略性地謹(jǐn)慎使用它。

4、考慮人工智能監(jiān)督功能

為了保護(hù)客戶隱私,金融機(jī)構(gòu)投入大量資源來(lái)管理對(duì)敏感文件的訪問(wèn)。他們的記錄團(tuán)隊(duì)仔細(xì)分類資產(chǎn)并構(gòu)建基礎(chǔ)設(shè)施,以確保只有正確的工作角色和部門才能看到每一個(gè)。這種結(jié)構(gòu)可以作為構(gòu)建組織人工智能治理功能的模板。一個(gè)專門的團(tuán)隊(duì)可以估計(jì)人工智能應(yīng)用程序的潛在積極或消極影響,并確定需要多久審查一次其結(jié)果以及由誰(shuí)來(lái)審查。

對(duì)于尋求數(shù)字化顛覆的企業(yè)來(lái)說(shuō),試驗(yàn)人工智能是重要的下一步。它將人類工作者從平凡的任務(wù)中解放出來(lái),并使某些活動(dòng)(如圖像分析)能夠以以前在財(cái)務(wù)上并不謹(jǐn)慎的方式進(jìn)行擴(kuò)展。但這不能掉以輕心。人工智能應(yīng)用必須在適當(dāng)?shù)谋O(jiān)督下仔細(xì)開發(fā),以避免偏見(jiàn)、道德上有問(wèn)題的決定和糟糕的業(yè)務(wù)結(jié)果。確保對(duì)組織內(nèi)的 AI 工作進(jìn)行了正確的訓(xùn)練。最嚴(yán)重的道德失誤往往發(fā)生在黑暗處。

本文作者:Jeff DeVerter-Chief Technology Evangelist, Rackspace Technology

免責(zé)聲明:本網(wǎng)站內(nèi)容主要來(lái)自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請(qǐng)進(jìn)一步核實(shí),并對(duì)任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對(duì)有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁(yè)或鏈接內(nèi)容可能涉嫌侵犯其知識(shí)產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書面權(quán)利通知或不實(shí)情況說(shuō)明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會(huì)依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。

2022-06-17
專家視點(diǎn):沒(méi)有監(jiān)管的AI會(huì)產(chǎn)生倫理偏見(jiàn)
僅僅因?yàn)槟憧赡芸床坏饺斯ぶ悄艿腻e(cuò)誤并不意味著一切都很好,但尋找道德或其他問(wèn)題取決于人類。

長(zhǎng)按掃碼 閱讀全文