AI要統(tǒng)治人類?2018年人工智能還有這五大棘手問題待攻克

AI要統(tǒng)治人類?2018年人工智能還有這五大棘手問題待攻克

在所有關(guān)于殺手機(jī)器人的高調(diào)宣傳下,2017年在人工智能方面取得了一些顯著的進(jìn)步。例如,今年初名為L(zhǎng)ibratus(冷撲大師)的人工智能系統(tǒng)可能會(huì)使頂尖德州撲克選手陷入尷尬的境地;更有名氣點(diǎn)的AlphaGo,數(shù)次讓圍棋冠軍折戟。而在現(xiàn)實(shí)世界中,機(jī)器學(xué)習(xí)正在用于改善農(nóng)業(yè),擴(kuò)大醫(yī)療保健的覆蓋面。

但是你最近和Siri或者Alexa談過了嗎?那么你會(huì)知道,盡管炒作、信心百倍的億萬(wàn)富翁,可還有很多事情,人工智能仍然不能做或無(wú)法理解。人工智能還面臨著五大棘手問題,明年專家們得絞盡腦汁了。

理解語(yǔ)言

機(jī)器在使用文本和語(yǔ)言方面比以往任何時(shí)候都更好。 Facebook可以讀出對(duì)視障人士的圖像描述。谷歌更是做了一個(gè)高級(jí)的工作,在回復(fù)電子郵件時(shí)給出簡(jiǎn)短建議。然而,軟件仍然不能真正理解我們?cè)捳Z(yǔ)中的意思,以及我們分享給它們的想法。波特蘭州立大學(xué)教授梅蘭妮·米切爾(Melanie Mitchell)表示:“我們能夠把我們學(xué)到的概念以不同的方式結(jié)合起來(lái),并在新的情況下應(yīng)用。”“而AI和機(jī)器學(xué)習(xí)系統(tǒng)卻做不到?!?/p>

米切爾將今天的軟件描述為數(shù)學(xué)家Gian Carlo-Rota所說的“意義障礙”。一些領(lǐng)先的AI研究團(tuán)隊(duì)正試圖找出如何去解決的方法。

這項(xiàng)工作有的旨在為機(jī)器提供一種常識(shí)基礎(chǔ),以及支撐我們自己思維的物質(zhì)世界。例如,F(xiàn)acebook研究人員正試圖通過觀看視頻來(lái)教軟件來(lái)理解現(xiàn)實(shí)。還有的模擬我們用與世界相關(guān)的知識(shí)可以來(lái)做什么。谷歌一直試圖創(chuàng)造出能學(xué)習(xí)隱喻的軟件。米切爾已經(jīng)嘗試過使用類比和關(guān)于世界的概念來(lái)系統(tǒng)解釋照片中發(fā)生的事情。

AI要統(tǒng)治人類?2018年人工智能還有這五大棘手問題待攻克

阻礙機(jī)器人革命的“現(xiàn)實(shí)鴻溝”

機(jī)器人硬件已經(jīng)相當(dāng)不錯(cuò)了。你只需花500美元就可以買到手掌大小的無(wú)人機(jī),還配有高清攝像頭。搬運(yùn)箱子和兩條腿走路的機(jī)器也有所改進(jìn)。為什么我們沒有被機(jī)械助手包圍住呢?因?yàn)榻裉斓臋C(jī)器人缺乏匹配它們先進(jìn)肌肉的大腦。

讓機(jī)器人做任何事情都需要針對(duì)特定??的任務(wù)進(jìn)行特定的編程。它們可以學(xué)習(xí)操作,如抓取物體的重復(fù)試驗(yàn)(和試錯(cuò))。但是這個(gè)過程相對(duì)較慢。一個(gè)有希望的捷徑是讓機(jī)器人在虛擬、模擬的世界中訓(xùn)練,然后把那些來(lái)之不易的知識(shí)下載到物理機(jī)器人體內(nèi)。然而,這種方法受到了“現(xiàn)實(shí)鴻溝”的困擾。現(xiàn)實(shí)鴻溝這個(gè)短語(yǔ)描述了機(jī)器人在模擬過程中學(xué)到的技能在轉(zhuǎn)移到物理世界中時(shí)并不總是有效。

不過,“現(xiàn)實(shí)鴻溝”正在縮小。10月份,谷歌對(duì)虛擬和現(xiàn)實(shí)機(jī)器人進(jìn)行實(shí)驗(yàn),用手臂學(xué)會(huì)拾取包括膠帶座、玩具和梳子在內(nèi)的各種物體,得到了有希望的結(jié)果。

進(jìn)一步的發(fā)展也給自動(dòng)駕駛汽車工作者帶來(lái)曙光。無(wú)人駕駛競(jìng)賽中的公司們?cè)谔摂M街道上部署虛擬車輛,以減少在實(shí)際交通和道路條件下測(cè)試所花費(fèi)的時(shí)間和金錢。無(wú)人駕駛創(chuàng)業(yè)公司Aurora首席執(zhí)行官Chris Urmson說,讓虛擬測(cè)試更適用于真實(shí)車輛是他團(tuán)隊(duì)的優(yōu)先考慮項(xiàng)之一。之前領(lǐng)導(dǎo)谷歌母公司Alphabet自主汽車項(xiàng)目的Urmson說:“明年以后我們可以很好地利用它來(lái)加快學(xué)習(xí)?!?/p>

AI要統(tǒng)治人類?2018年人工智能還有這五大棘手問題待攻克

防范AI黑客攻擊

運(yùn)行著我們的電網(wǎng)、安全攝像頭和手機(jī)的軟件受到安全漏洞的困擾。我們不應(yīng)該期望無(wú)人車和家用機(jī)器人的軟件有什么不同。事實(shí)上,這可能會(huì)更糟糕:有證據(jù)表明,機(jī)器學(xué)習(xí)軟件的復(fù)雜性引入了新的攻擊途徑。

研究人員今年表示,你可以在機(jī)器學(xué)習(xí)系統(tǒng)內(nèi)隱藏一個(gè)秘密觸發(fā)器,導(dǎo)致它在看到一個(gè)特定的信號(hào)時(shí)變身“邪惡”模式。紐約大學(xué)研究小組設(shè)計(jì)了一個(gè)街道識(shí)別系統(tǒng),通常情況下它能正常工作,除非它看到黃色便簽。將一張黃色便簽粘貼到布魯克林的停車標(biāo)志上,導(dǎo)致系統(tǒng)將該標(biāo)志報(bào)告為限速。這些騙術(shù)可能會(huì)對(duì)自動(dòng)駕駛汽車造成潛在問題。

這種威脅被認(rèn)為是非常嚴(yán)重的,世界上最重要的機(jī)器學(xué)習(xí)會(huì)議的研究人員,在本月早些時(shí)候召開了一個(gè)關(guān)于機(jī)器欺騙威脅的研討會(huì)。研究人員討論了一些惡魔般的技巧,比如如何生成看起來(lái)與人類一樣看似正常的手寫數(shù)字,但軟件看起來(lái)卻不同。例如,你所看到的是數(shù)字2,機(jī)器視覺系統(tǒng)看就是3。研究人員還討論了這種攻擊的可能防御方法,并且擔(dān)心人工智能被用來(lái)愚弄人類。

組織研討會(huì)的Tim Hwang預(yù)測(cè),隨著機(jī)器學(xué)習(xí)變得更容易部署,功能更強(qiáng)大,使用該技術(shù)操縱人是不可避免的。他說:“你不再需要滿滿一屋子的博士來(lái)研究機(jī)器學(xué)習(xí)?!盚wang指出,在2016年總統(tǒng)選舉期間,俄羅斯的虛假宣傳運(yùn)動(dòng)是AI增強(qiáng)信息戰(zhàn)的潛在先行者。他說:“為什么不在這些活動(dòng)中看到機(jī)器學(xué)習(xí)領(lǐng)域的技術(shù)呢? Hwang預(yù)測(cè)了一個(gè)可能使機(jī)器學(xué)習(xí)產(chǎn)生虛假視頻和音頻的騙術(shù)。

AI要統(tǒng)治人類?2018年人工智能還有這五大棘手問題待攻克

不止桌游

Alphabet的圍棋冠軍軟件在2017年迅速發(fā)展。5月份,AlphaGo一個(gè)更強(qiáng)大的版本擊敗了中國(guó)圍棋冠軍柯潔。AlphaGo的創(chuàng)造者是研究部門DeepMind,隨后構(gòu)建了一個(gè)版本,AlphaGo Zero,通過自我學(xué)習(xí)而打敗人類。12月, AlphaZero又一次升級(jí),它可以學(xué)習(xí)下棋和日本棋類游戲?qū)⑵濉?/p>

這一系列結(jié)果令人印象十分深刻,同時(shí)也提醒人們AI軟件的局限性。國(guó)際象棋、將棋和圍棋都很復(fù)雜,但所有對(duì)手都有相對(duì)簡(jiǎn)單的規(guī)則和游戲玩法。它們是對(duì)計(jì)算機(jī)快速篩選未來(lái)許多可能的一種良好匹配。但生活中的大多數(shù)情況和問題都不是那么整齊有序。

這就是為什么DeepMind和Facebook都在2017年開始制作多人游戲《星際爭(zhēng)霸》的原因。不過,兩者都還沒有取得太大進(jìn)展?,F(xiàn)在,由業(yè)余愛好者打造的最好的機(jī)器人,甚至都比不上那些技術(shù)高超的玩家。DeepMind的研究人員Oriol Vinyals今年早些時(shí)候?qū)IRE說,他的軟件現(xiàn)在缺乏必要的規(guī)劃和記憶能力,需要仔細(xì)地收集和指揮一支軍隊(duì),同時(shí)對(duì)對(duì)手的行動(dòng)進(jìn)行預(yù)測(cè)和反應(yīng)。并非巧合的是,這些技能也會(huì)讓軟件在幫助諸如辦公室工作或真正的軍事行動(dòng)等真實(shí)任務(wù)方面做得更好。2018年星際爭(zhēng)霸或類似游戲的重大進(jìn)展可能預(yù)示著人工智能的強(qiáng)大新應(yīng)用。

教AI辨別是非

即使在上述領(lǐng)域沒有取得新的進(jìn)展,如果現(xiàn)有的AI技術(shù)被廣泛采用,經(jīng)濟(jì)和社會(huì)的許多方面也會(huì)發(fā)生很大的變化。當(dāng)企業(yè)和政府急于這樣做時(shí),有人擔(dān)心人工智能和機(jī)器學(xué)習(xí)造成的意外和故意傷害。

在本月的NIPS機(jī)器學(xué)習(xí)大會(huì)上,如何讓技術(shù)保持在安全和道德的范圍內(nèi)是一個(gè)突出討論的話題。研究人員發(fā)現(xiàn),機(jī)器學(xué)習(xí)系統(tǒng)在接受來(lái)自“完美世界”的數(shù)據(jù)訓(xùn)練時(shí),可以挑選出令人討厭的或不想要的行為,比如永久的性別刻板印象?,F(xiàn)在,一些人正在研究可以用于審計(jì)內(nèi)部工作的人工智能系統(tǒng)技術(shù),并確保它們?cè)趶氖陆鹑诨蜥t(yī)療等行業(yè)工作時(shí)做出公平的決策。

明年應(yīng)該能看到科技公司提出如何讓人工智能站邊人性的想法。谷歌,F(xiàn)acebook,微軟和其他人已經(jīng)開始討論這個(gè)問題,并且成立一個(gè)新的非營(yíng)利組織Partnership on AI,該組織將研究和嘗試塑造人工智能的社會(huì)影響。同時(shí)還有來(lái)自許多獨(dú)立組織的壓力。一個(gè)名為“人工智能基金倫理與治理”的慈善項(xiàng)目正在支持麻省理工學(xué)院,哈佛大學(xué)等其他人研究人工智能和公共利益。紐約大學(xué)的一個(gè)新研究機(jī)構(gòu)AI Now也有類似的任務(wù)。在最近的一份報(bào)告中,它呼吁各國(guó)政府發(fā)誓放棄在刑事司法或福利等領(lǐng)域使用沒有公開檢查的“黑匣子”算法。

(免責(zé)聲明:本網(wǎng)站內(nèi)容主要來(lái)自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請(qǐng)進(jìn)一步核實(shí),并對(duì)任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對(duì)有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。
任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁(yè)或鏈接內(nèi)容可能涉嫌侵犯其知識(shí)產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書面權(quán)利通知或不實(shí)情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會(huì)依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )

贊助商
2017-12-29
AI要統(tǒng)治人類?2018年人工智能還有這五大棘手問題待攻克
在所有關(guān)于殺手機(jī)器人的高調(diào)宣傳下,2017年在人工智能方面取得了一些顯著的進(jìn)步。

長(zhǎng)按掃碼 閱讀全文