谷歌首席決策科學(xué)家:AI難免犯錯(cuò),唯有人類可以懸崖勒馬

Cassie Kozyrkov在過去五年里在谷歌擔(dān)任過各種各樣的技術(shù)職務(wù),但她現(xiàn)在擔(dān)任著“首席決策科學(xué)家”這個(gè)有點(diǎn)奇怪的職位?!皼Q策科學(xué)是數(shù)據(jù)和行為科學(xué)的交叉學(xué)科,涉及統(tǒng)計(jì)學(xué)、機(jī)器學(xué)習(xí)、心理學(xué)、經(jīng)濟(jì)學(xué)等。

實(shí)際上,這意味著Kozyrkov幫助谷歌推動(dòng)了一個(gè)積極的人工智能議程——或者,至少,讓人們相信人工智能并不像許多人宣稱的那么糟糕。

焦慮

“機(jī)器人正在偷走我們的工作”,“人工智能是人類生存的最大威脅”,類似的言論已不絕如耳,尤其在過去幾年里,這種擔(dān)憂變得更加明顯。

人工智能對(duì)話助手滲入我們的家中,汽車和卡車自動(dòng)駕駛似乎指日可待,機(jī)器可以在電腦游戲中打敗人類,甚至創(chuàng)意藝術(shù)也不能幸免于人工智能的沖擊。另一方面,我們也被告知枯燥重復(fù)的工作可能會(huì)成為過去。

人們對(duì)自己在自動(dòng)化世界中的未來感到焦慮和困惑,這是可以理解的。但是,根據(jù)Kozyrkov的說法,人工智能只是人類努力方向的延伸。

“人類的故事就是自動(dòng)化的故事,” Kozyrkov表示。“人類的史詩就是要把事情做得更好——從有人拿起一塊石頭砸向另一塊石頭的那一刻起,因?yàn)槭虑榭梢宰龅酶臁N覀兪且粋€(gè)制造工具的物種,我們反抗苦差事?!?/p>

對(duì)人工智能潛在恐懼的原因是我們覺得它可以做得比人類更好,但這種擔(dān)心并不成立。Kozyrkov認(rèn)為,所有工具都比人類好。理發(fā)師用剪刀理發(fā),因?yàn)橛檬职杨^發(fā)剪出來是一種不太理想的體驗(yàn)。印刷機(jī)使文本的大規(guī)模生產(chǎn)成為可能,其規(guī)模是人類用鋼筆無法復(fù)制的。但筆本身就開啟了一個(gè)充滿機(jī)遇的世界。

“我們所有的工具都比人類好——這就是工具的意義所在,” Kozyrkov繼續(xù)說道?!叭绻麤]有工具你可以做得更好,為什么要使用工具呢?如果你擔(dān)心電腦的認(rèn)知能力比你強(qiáng),那我要提醒你,你的筆和紙?jiān)谟洃浄矫姹饶銖?qiáng)。我的水桶比我更擅長裝水,我的計(jì)算器比我更擅長把六位數(shù)相乘。人工智能在某些方面也會(huì)變是如此?!?/p>

當(dāng)然,許多人對(duì)人工智能和自動(dòng)化的潛在恐懼并不是說它會(huì)比人類更擅長做事。對(duì)許多人來說,真正的危險(xiǎn)在于,任何惡意實(shí)體可以肆無忌憚地對(duì)我們的一舉一動(dòng)進(jìn)行跟蹤和微觀管理,從而在我們身上投下反烏托邦的陰影——幾乎不費(fèi)任何力氣就能實(shí)現(xiàn)一個(gè)秘密的宏偉愿景。

其他的擔(dān)憂與算法偏見、缺乏足夠的監(jiān)督以及最終的末日?qǐng)鼍坝嘘P(guān):如果某件事發(fā)生了嚴(yán)重且無意的錯(cuò)誤,該怎么辦?

偏見

研究人員已經(jīng)證明了人臉識(shí)別系統(tǒng)中固有的偏見,比如亞馬遜的Rekognition。民主黨總統(tǒng)候選人參議員Elizabeth Warren此前呼吁聯(lián)邦機(jī)構(gòu)解決算法偏見的問題,比如美聯(lián)儲(chǔ)如何處理貨幣貸款歧視。

但人們對(duì)人工智能如何真正減少人類現(xiàn)有偏見的關(guān)注少之又少。

舊金山最近宣稱,它將使用人工智能來減少對(duì)犯罪嫌疑人的偏見,例如,自動(dòng)修改警方報(bào)告中的某些信息。

在招聘領(lǐng)域,風(fēng)投支持的Fetcher正著手幫助企業(yè)利用人工智能尋找人才。該公司聲稱,人工智能還有助于將人類偏見降到最低。Fetcher通過在線渠道自動(dòng)尋找潛在候選人,并使用關(guān)鍵字來確定個(gè)人可能擁有的技能,而這些技能并沒有列在個(gè)人資料中。該公司將其平臺(tái)宣傳為消除招聘偏見的一種簡單方法,因?yàn)槿绻阌?xùn)練一個(gè)系統(tǒng)遵循一套嚴(yán)格的標(biāo)準(zhǔn),只關(guān)注技能和經(jīng)驗(yàn),性別、種族或年齡等因素將不會(huì)被考慮在內(nèi)。

Fetcher聯(lián)合創(chuàng)始人兼首席執(zhí)行官Andres Blank表示:“我們相信,我們可以利用技術(shù)來解決多種形式的招聘偏見,幫助公司建立更加多樣化和包容性的組織?!?/p>

但對(duì)人工智能系統(tǒng)性歧視的擔(dān)憂,是許多人工智能領(lǐng)域的首要議題。微軟敦促美國政府監(jiān)管面部識(shí)別系統(tǒng),研究人員正致力于在不影響預(yù)測結(jié)果準(zhǔn)確性的前提下,減少人工智能中的偏見。

人為因素

最重要的是,人工智能還處于相對(duì)起步階段,我們?nèi)栽谘芯咳绾谓鉀Q算法偏見等問題。但Kozyrkov表示,人工智能所顯示的偏見與現(xiàn)有的人類偏見是一樣的——用于訓(xùn)練機(jī)器的數(shù)據(jù)集與用于教育人類的教科書完全一樣。

“數(shù)據(jù)集和教科書都有人類作者——它們都是根據(jù)人類的指令收集的,”她說。“如果你給你的學(xué)生一本由一位懷有嚴(yán)重偏見的作者編寫的教科書,你認(rèn)為你的學(xué)生不會(huì)染上同樣的偏見嗎?”

當(dāng)然,在現(xiàn)實(shí)世界中,受人尊敬的同行評(píng)審的期刊或教科書應(yīng)該有足夠的監(jiān)督來對(duì)抗任何明顯的偏見——但如果作者、他們的數(shù)據(jù)源以及鼓勵(lì)學(xué)生閱讀教科書的老師都有同樣的偏見呢?任何陷阱可能要到很久以后才會(huì)被發(fā)現(xiàn),到那時(shí)想要阻止任何不良影響就太晚了。

因此,Kozyrkov夫認(rèn)為,“視角的多樣性”對(duì)于確保偏見最小化是必不可少的。

她說:“你對(duì)數(shù)據(jù)的關(guān)注越多,你就越有可能發(fā)現(xiàn)那些潛在的不良案例。所以在人工智能中,多樣性是必須擁有的。你確實(shí)需要從不同的角度來看待和思考如何使用這些例子來影響世界?!?/p>測試

與學(xué)生考試的現(xiàn)實(shí)世界類似,在部署人工智能算法和機(jī)器學(xué)習(xí)模型之前測試它們,是確保它們能夠執(zhí)行設(shè)定的任務(wù)。

人類學(xué)生如果被問到他們事先學(xué)習(xí)過的問題,他們可能在考試中表現(xiàn)得非常好,但這可能是因?yàn)樗麄冇泻芎玫挠洃浟?,而不是?duì)手頭的科目有一個(gè)完整的理解。為了測試更廣泛的理解能力,需要給學(xué)生一些問題,讓他們能夠應(yīng)用所學(xué)知識(shí)。

機(jī)器學(xué)習(xí)是在同樣的前提下運(yùn)行的——存在一種被稱為“過度擬合”的建模錯(cuò)誤,在這種錯(cuò)誤中,一個(gè)特定的函數(shù)與訓(xùn)練數(shù)據(jù)過于緊密地對(duì)齊,可能會(huì)出現(xiàn)誤報(bào)?!半娔X的記憶力真的很好,” Kozyrkov說,“所以你真正測試他們的方法是給他們一些真實(shí)的新東西,他們不可能記住的。如果成功了,那就是真的成功了。”

Kozyrkov將安全有效的人工智能的四項(xiàng)原則與教授人類學(xué)生的四項(xiàng)基本原則進(jìn)行了比較,基本是類似的:

明智的教學(xué)目標(biāo)相關(guān)和多樣化的觀點(diǎn)精心制作的測試安全網(wǎng)

不過,即使是最精心設(shè)計(jì)、初衷最好的人工智能系統(tǒng)也可能失敗或犯錯(cuò)——事實(shí)上,系統(tǒng)越好,在某些方面就越危險(xiǎn),就像人類學(xué)生一樣。

“即使你的學(xué)生真的很好,他們也可能犯錯(cuò)誤,” Kozyrkov說,“事實(shí)上,在某些方面,差學(xué)生比好生更危險(xiǎn),因?yàn)橛辛瞬钌?,你已?jīng)習(xí)慣了他們犯錯(cuò)誤,所以你已經(jīng)有了安全網(wǎng)。但是對(duì)于好生,如果你從來沒有見過他們犯錯(cuò)誤,你可能會(huì)認(rèn)為他們從來沒有犯過錯(cuò)誤。這可能只會(huì)讓你花費(fèi)更長的時(shí)間,然后就是災(zāi)難性的失敗。”

這種“安全網(wǎng)”可以采取多種形式,但它往往涉及建立一個(gè)單獨(dú)的系統(tǒng),而不是“過分信任你的好學(xué)生,” Kozyrkov說。在一個(gè)例子中,一個(gè)房主配置了他的智能攝像頭和鎖系統(tǒng),如果它發(fā)現(xiàn)了一張不熟悉的面孔,就會(huì)啟動(dòng)它——但有點(diǎn)滑稽的是,它錯(cuò)誤地將房主識(shí)別為他T恤上的蝙蝠俠形象,并拒絕他進(jìn)入。

所有這一切都指向一個(gè)可能對(duì)許多人來說顯而易見但或許值得重復(fù)的觀點(diǎn):人工智能是其創(chuàng)造者的反映。因此,我們需要集中精力實(shí)現(xiàn)系統(tǒng)和檢查,以確保那些構(gòu)建機(jī)器的人(“教師”)是負(fù)責(zé)任的。

圍繞“機(jī)器教學(xué)”的重要性,人們達(dá)成了越來越多的共識(shí)。微軟等公司最近表示,人工智能的下一個(gè)前沿領(lǐng)域?qū)⑹抢萌祟悓I(yè)人士的專業(yè)技能來訓(xùn)練機(jī)器學(xué)習(xí)系統(tǒng),而不管專家是否具備人工智能知識(shí)或編程能力。

“是時(shí)候讓我們把重點(diǎn)放在機(jī)器教學(xué)上,而不僅僅是機(jī)器學(xué)習(xí)了,” Kozyrkov指出。“不要讓科幻小說的花言巧語分散你對(duì)人類責(zé)任的注意力,從一開始就關(guān)注參與其中的人類。從領(lǐng)導(dǎo)者設(shè)定的目標(biāo),到工程師編寫、分析師和決策者核查的數(shù)據(jù)集,再到統(tǒng)計(jì)學(xué)家進(jìn)行的測試,再到可靠性工程師構(gòu)建的安全網(wǎng),所有這些都包含了很多人為因素?!?來源:獵云網(wǎng))

極客網(wǎng)企業(yè)會(huì)員

免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請(qǐng)進(jìn)一步核實(shí),并對(duì)任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對(duì)有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識(shí)產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書面權(quán)利通知或不實(shí)情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會(huì)依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。

2019-06-17
谷歌首席決策科學(xué)家:AI難免犯錯(cuò),唯有人類可以懸崖勒馬
人工智能的下一個(gè)前沿領(lǐng)域?qū)⑹抢萌祟悓I(yè)人士的專業(yè)技能來訓(xùn)練機(jī)器學(xué)習(xí)系統(tǒng)。

長按掃碼 閱讀全文