對(duì)于人工智能(AI)領(lǐng)域來(lái)說(shuō),2019年堪稱是個(gè)異常忙碌的年份。AI進(jìn)步和登上新聞?lì)^條的速度讓我們的日常生活中充滿了令人敬畏和自豪的時(shí)刻。當(dāng)然,有時(shí)候也充斥著惱人的想法,即我們的社會(huì)對(duì)AI時(shí)代的到來(lái)準(zhǔn)備依然不夠充分。2019年是AI取得重大進(jìn)步的一年還是幻想破滅的一年?隨著研究人員迅速攻克以前讓人感覺難以企及的基準(zhǔn),我們今天能說(shuō)這個(gè)領(lǐng)域走上了穩(wěn)定的發(fā)展軌道嗎?
在應(yīng)用數(shù)據(jù)科學(xué)合作伙伴公司(Applied Data Science Partners)的幫助下,我們希望后退一步,對(duì)2019年的AI活動(dòng)進(jìn)行排序和透視。在聚光燈下,重要的是要把一件作品最初吸引人的興趣與它的實(shí)際重要性以及它對(duì)這個(gè)領(lǐng)域的影響分開?;谶@個(gè)原因,本文以平行方式敘述2019年的AI故事,并試圖分離它們的意義。下面,就讓我們回顧下2019年AI領(lǐng)域的發(fā)展情況:
強(qiáng)化學(xué)習(xí)回歸
如果我們選擇用一句話來(lái)描述2019年的AI發(fā)展情況,那很可能是:“強(qiáng)化學(xué)習(xí)(RL)回歸了,而且看起來(lái)它會(huì)繼續(xù)保持這種趨勢(shì)。”
到目前為止,我們中的大多數(shù)人可能都已經(jīng)熟悉有監(jiān)督學(xué)習(xí)模式:有些人收集了大量的訓(xùn)練數(shù)據(jù),將它們提供給機(jī)器學(xué)習(xí)算法,讓它提煉出模型,然后幫助我們進(jìn)行預(yù)測(cè)和分類。我們中的有些人甚至可能會(huì)有這樣的印象,即AI是有監(jiān)督學(xué)習(xí)的同義詞。然而,它只是我們今天擁有的眾多機(jī)器學(xué)習(xí)類型中的一種。
在強(qiáng)化學(xué)習(xí)中,代理通過試驗(yàn)和錯(cuò)誤來(lái)學(xué)習(xí),通過與環(huán)境的交互來(lái)判斷他們的行為。當(dāng)涉及多個(gè)智能代理時(shí),它們就被認(rèn)為是一個(gè)多智能代理強(qiáng)化學(xué)習(xí)系統(tǒng)。
這個(gè)領(lǐng)域已經(jīng)存在了幾十年,從概念上講,比起有監(jiān)督學(xué)習(xí)模式,這聽起來(lái)更像是一種創(chuàng)造智能的學(xué)習(xí)機(jī)制。然而,直到2015年,英國(guó)人工智能初創(chuàng)企業(yè)DeepMind才獲得了吸引力,當(dāng)時(shí)該公司使用Deep Q學(xué)習(xí)(經(jīng)典強(qiáng)化學(xué)習(xí)算法與深度神經(jīng)網(wǎng)絡(luò)相結(jié)合)創(chuàng)建了可以玩Atari游戲的代理。2018年,人工智能研發(fā)組織OpenAI也通過征服《Montezuma’s Revenge》游戲在該領(lǐng)域站穩(wěn)了腳跟,這是一款被認(rèn)為特別難的Atari游戲。
在過去的幾個(gè)月里,事情取得了重大進(jìn)展:這些工作重新喚醒了強(qiáng)化學(xué)習(xí)研究界的信念。在過去,強(qiáng)化學(xué)習(xí)被認(rèn)為過于低效和簡(jiǎn)單,無(wú)法解決復(fù)雜的問題,哪怕是游戲。
今年獲得重大推進(jìn)的另一個(gè)用例是自然語(yǔ)言處理(NLP)。盡管研究人員在這個(gè)領(lǐng)域已經(jīng)工作了幾十年,但在幾年前,自然語(yǔ)言處理系統(tǒng)生成的文本聽起來(lái)并不夠自然。自2018年底以來(lái),人們的注意力已經(jīng)從過去的單詞嵌入轉(zhuǎn)移到預(yù)先訓(xùn)練的語(yǔ)言模型上,這是自然語(yǔ)言理解從計(jì)算機(jī)視覺中借鑒的一種技術(shù)。
訓(xùn)練這些模型是以一種無(wú)監(jiān)督學(xué)習(xí)的方式進(jìn)行的,這使得當(dāng)代系統(tǒng)能夠從互聯(lián)網(wǎng)上可用的海量文本中學(xué)習(xí)。因此,這些模式變得“有知識(shí)”,并發(fā)展出了理解語(yǔ)境的能力。然后,使用有監(jiān)督學(xué)習(xí)可以進(jìn)一步提高他們?cè)谔囟ㄈ蝿?wù)中的表現(xiàn)。這種通過訓(xùn)練不同任務(wù)來(lái)改進(jìn)機(jī)器學(xué)習(xí)模型的做法屬于遷移學(xué)習(xí)領(lǐng)域,被認(rèn)為具有很大的潛力。
自然語(yǔ)言理解技術(shù)從去年開始蓄勢(shì)待發(fā),2018年底推出了Google Bert、Elmo和ulmfit等系統(tǒng),但今年的風(fēng)頭完全被OpenAI的GPT-2搶走,其表現(xiàn)引發(fā)了人們對(duì)自然語(yǔ)言理解系統(tǒng)是否合乎道德用例的討論。
理念走向成熟
今年也見證了最近的某些深度學(xué)習(xí)技術(shù)走向成熟。使用有監(jiān)督學(xué)習(xí)的應(yīng)用,特別是計(jì)算機(jī)視覺,催生了成功的現(xiàn)實(shí)產(chǎn)品和系統(tǒng)。
生成性對(duì)抗網(wǎng)絡(luò)(GANS)已經(jīng)達(dá)到了完美水平,其中生成器網(wǎng)絡(luò)試圖通過學(xué)習(xí)生成模仿訓(xùn)練數(shù)據(jù)的圖像來(lái)欺騙鑒別器網(wǎng)絡(luò)。顯然,創(chuàng)建人和物體的人工但逼真的圖像不再是AI的前沿。 2019年,AI生成的藝術(shù)甚至脫離了過去幾年的假設(shè)討論,成為今天博物館裝飾和拍賣的一部分。
計(jì)算機(jī)視覺技術(shù)也已被應(yīng)用于具有重大商業(yè)和社會(huì)利益的領(lǐng)域,包括自動(dòng)駕駛汽車和醫(yī)學(xué)。AI算法在這些領(lǐng)域的采用自然很慢,因?yàn)樗鼈冎苯优c人類生活互動(dòng)。至少到目前為止,這些系統(tǒng)還不是完全自主的,它們的目標(biāo)是支持和增強(qiáng)人類操作員的能力。
研究小組正在與醫(yī)院密切合作,開發(fā)用于疾病早期預(yù)測(cè)的AI系統(tǒng),并組織龐大的健康數(shù)據(jù)檔案,一個(gè)顯著的例子是DeepMind Health和倫敦大學(xué)附屬醫(yī)院(UCLH)之間正在進(jìn)行的合作。然而,這些工作中的大多數(shù)仍處于實(shí)驗(yàn)階段,到目前為止,使用深度學(xué)習(xí)來(lái)增強(qiáng)醫(yī)學(xué)圖像的軟件SubtlePet,是唯一獲得FDA批準(zhǔn)的AI系統(tǒng)。
沉睡的巨人
AutoML是機(jī)器學(xué)習(xí)的一個(gè)子領(lǐng)域,自上世紀(jì)90年代出現(xiàn)以來(lái),在2016年引起了人們的極大興趣,但不知何故從未登上過頭條,至少?zèng)]有像其他AI趨勢(shì)那樣引發(fā)關(guān)注?;蛟S這要?dú)w因于它不那么花哨的本質(zhì):AutoML旨在通過自動(dòng)做出今天數(shù)據(jù)科學(xué)家通過手動(dòng)、暴力調(diào)整做出的決策,來(lái)提高機(jī)器學(xué)習(xí)的實(shí)踐效率。
在過去的三年里,我們對(duì)這一領(lǐng)域的理解發(fā)生了變化。今天,大多數(shù)大公司都提供AutoML工具,包括Google Cloud AutoML、Microsoft Azure、Amazon Web Services和DataRobot。今年,人們的興趣轉(zhuǎn)向了進(jìn)化方法,學(xué)習(xí)進(jìn)化AI框架(LEAF)成為最先進(jìn)的技術(shù)。然而,AutoML還沒有達(dá)到允許全自動(dòng)AI系統(tǒng)比AI專家團(tuán)隊(duì)表現(xiàn)更好的成熟程度。
對(duì)AI的擔(dān)憂
盡管取得了巨大成功,但今年AI領(lǐng)域也帶給我們?cè)S多令人沮喪的故事。一個(gè)主要問題是機(jī)器學(xué)習(xí)模型中存在的偏見,這個(gè)問題直到2018年才出現(xiàn),當(dāng)時(shí)亞馬遜發(fā)現(xiàn)其自動(dòng)招聘系統(tǒng)中存在性別偏見,而美國(guó)法院廣泛使用的判決工具COMPAS也被發(fā)現(xiàn)對(duì)性別和種族存在偏見。
今年此類示例數(shù)量明顯增加,這可以說(shuō)表明公眾和機(jī)構(gòu)對(duì)用于自動(dòng)化決策的現(xiàn)有AI系統(tǒng)越來(lái)越懷疑。舉幾個(gè)例子為證:
——10月份多家醫(yī)院算法被發(fā)現(xiàn)對(duì)黑人患者有偏見;
——用于發(fā)放英國(guó)簽證的AI系統(tǒng)在10月份被一個(gè)人權(quán)組織指責(zé)存在種族偏見;
——蘋果的信用評(píng)分系統(tǒng)在11月被客戶指責(zé)存在性別偏見。
偏見是一個(gè)特別令人擔(dān)憂的問題,因?yàn)樗挥谟斜O(jiān)督深度學(xué)習(xí)的核心中。當(dāng)有偏見的數(shù)據(jù)用于訓(xùn)練算法,而預(yù)測(cè)模型無(wú)法解釋時(shí),我們無(wú)法真正判斷是否存在偏見。到目前為止,研究界的反應(yīng)是開發(fā)技術(shù)以了解深層模型決策背后的原因。但專家警告稱,如果我們采取正確的做法,許多問題都可以得到解決。Google Cloud Model Cards是最近組織社區(qū)走向開源模式的一次嘗試,并對(duì)其性質(zhì)和局限性進(jìn)行了清晰的描述。
今年的另一個(gè)令人擔(dān)憂的認(rèn)識(shí)是,一項(xiàng)技術(shù)變得越復(fù)雜,它被濫用的可能性就越高。深度造假(Deepfakes)就是Gans的副產(chǎn)物,深度學(xué)習(xí)算法被用來(lái)在純粹虛構(gòu)的場(chǎng)景中創(chuàng)建涉及真人的圖片或視頻。不需要擁有太多的遠(yuǎn)見,就可以看到這種技術(shù)如何被用來(lái)傳播虛假消息,從政治宣傳到欺凌等。這個(gè)問題不能僅靠科學(xué)家來(lái)解決,歷史證明,他們不善于預(yù)測(cè)他們的發(fā)現(xiàn)對(duì)現(xiàn)實(shí)生活的影響,更不用說(shuō)控制它們了,這需要社會(huì)各界的對(duì)話。
如今,量化AI的價(jià)值是很困難的,但有一件事是肯定的:AI已經(jīng)離開了科幻小說(shuō)和前衛(wèi)計(jì)算機(jī)科學(xué)的領(lǐng)域,現(xiàn)在是需要在這方面投入巨資的時(shí)候了。今年早些時(shí)候,三位主要的深度學(xué)習(xí)研究人員獲得了圖靈獎(jiǎng),這是人們期待已久的、對(duì)AI作為計(jì)算機(jī)科學(xué)既定領(lǐng)域的認(rèn)可。(選自:linkedin 作者:David Foster 編譯:網(wǎng)易智能 參與:小?。?/p>
(免責(zé)聲明:本網(wǎng)站內(nèi)容主要來(lái)自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請(qǐng)進(jìn)一步核實(shí),并對(duì)任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對(duì)有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。
任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁(yè)或鏈接內(nèi)容可能涉嫌侵犯其知識(shí)產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書面權(quán)利通知或不實(shí)情況說(shuō)明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會(huì)依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )