馬斯克的人工智能未來保衛(wèi)戰(zhàn)

馬斯克的人工智能未來保衛(wèi)戰(zhàn)

2月7日,重型獵鷹火箭(Falcon Heavy)運(yùn)載火箭發(fā)射成功,新的人類最強(qiáng)現(xiàn)役運(yùn)載火箭就此誕生。不論是這個(gè)歷史性事件,還是這個(gè)人物,都已經(jīng)在這兩天刷屏了。下面,讓我們來了解這個(gè)一言不發(fā)就要改變世界的“變態(tài)”在AI領(lǐng)域做出的成績吧!

埃隆·馬斯克

特斯拉和SpaceX的CEO,他計(jì)劃在火星上殖民,并認(rèn)為人工智能可能會(huì)把人類變成自己的寵物。他熱衷于在推特上發(fā)布一些爭議性言論。除了這些炒作和他巨大的網(wǎng)絡(luò)價(jià)值外,馬斯克的公司實(shí)際上是在參與……幾乎每一個(gè)行業(yè)。

埃隆·馬斯克,與我們所習(xí)慣的企業(yè)家相比,他的行動(dòng)規(guī)模可以說是宇宙級(jí)那么大的。他已經(jīng)成為未來的代名詞。

不管他從事于電動(dòng)汽車(Tesla),還是向太空發(fā)射火箭(SpaceX),他傳奇的名聲吸引了很多人崇拜。馬斯克和他公司的的故事足以讓100個(gè)記者筆不停歇的寫上幾天。

他的主要項(xiàng)目會(huì)影響到幾乎所有的重大產(chǎn)業(yè)和全球性問題,我們可以想象一下,這些領(lǐng)域都即將發(fā)生顛覆性的重組。

馬斯克的人工智能未來保衛(wèi)戰(zhàn)

▲馬斯克幾乎參與到了所有行業(yè)

馬斯克的人工智能未來保衛(wèi)戰(zhàn)

▲馬斯克在推特上戲稱,也許他會(huì)把火箭技術(shù)應(yīng)用在汽車上

我們決定對(duì)馬斯克的生態(tài)系統(tǒng)進(jìn)行一種不同的研究。

我們不是要評(píng)估埃隆馬斯克和他的公司在承諾和宣傳上的表現(xiàn),而是想看看他的公司是怎樣改變或者沒有改變這些行業(yè)——用數(shù)字,確鑿的證據(jù),以及顛覆性的具體表現(xiàn)。

這篇文章主要介紹在人工智能領(lǐng)域,埃隆馬斯克如何用他公司的資金、發(fā)明和創(chuàng)造力改變這個(gè)行業(yè)。

馬斯克的人工智能未來保衛(wèi)戰(zhàn)

▲馬斯克的公司

人工智能是一種威脅?

在2017年8月,在Valve的Dota 2錦標(biāo)賽中,一個(gè)新的頂級(jí)玩家出現(xiàn)在了在線游戲的世界。在一周的時(shí)間里,這名球員擊敗了包括世界冠軍在內(nèi)的其他頂級(jí)球員,這是最艱難的在線比賽之一。這名人工智能玩家其實(shí)只打了6個(gè)月游戲。

馬斯克的人工智能未來保衛(wèi)戰(zhàn)

▲馬斯克:OpenAI首次在電競中擊敗了世界上最優(yōu)秀的玩家。這比象棋和圍棋等傳統(tǒng)棋盤游戲要復(fù)雜得多

這條推文說明了了馬斯克和他的“非盈利的人工智能研究公司”O(jiān)penAI,就像谷歌與AlphaGo和Facebook的DarkForest一樣。但對(duì)于馬斯克和OpenAI來說,這并不是在玩游戲。這關(guān)于生命和死亡,以及人類的未來。就他看來,如果人工智能研究繼續(xù)沿著目前的道路走下去,人類就沒有未來。

人工智能現(xiàn)在是科技的核心組成部分,它不僅存在于一些很明顯的位置,比如Siri的自然語言處理、谷歌的RankBrain,它存在于幾乎所有的科技領(lǐng)域。

馬斯克的人工智能未來保衛(wèi)戰(zhàn)

▲cb insights -- AI 100

人工智能研究正以顯著的速度向前發(fā)展,馬斯克認(rèn)為這是對(duì)人類存在的一種威脅。谷歌、Facebook、亞馬遜、蘋果以及我們統(tǒng)計(jì)的AI 100的公司都在利用人工智能帶來好處:更高的效率、更高的生產(chǎn)力、更少的人類工作,以及最理想的人類生活 -- 縮減我們做煩瑣工作的時(shí)間,留下來更多時(shí)間去做更有趣、更有創(chuàng)意的事情。

但對(duì)這些好處的背后也隱藏著巨大的危機(jī):如果存在一種超級(jí)智能的人工智能,它比人類聰明得多,那么是不是就會(huì)認(rèn)為圍繞在它周圍的人類是無用的呢?

OpenAI的目的是為了加強(qiáng)人工智能研究。在人工智能上工作的公司自然是保密的。這是一項(xiàng)商業(yè)命令,所以,就算你可以閱讀來自DeepMind或Google Brain團(tuán)隊(duì),甚至是蘋果公司的機(jī)器學(xué)習(xí)研究報(bào)告,這些公司的具體人工智能應(yīng)用還是對(duì)外界保密的。

OpenAI不僅想要進(jìn)行研究,而且還想“占領(lǐng)元級(jí),比如平臺(tái)和基礎(chǔ)設(shè)施,這樣就可以讓每個(gè)人都能更快地進(jìn)行研究”。為了實(shí)現(xiàn)這一目標(biāo),該公司有兩個(gè)核心組成部分:

  • 研究:它吸引了很多業(yè)內(nèi)最好的研究人員,并承諾他們有機(jī)會(huì)參與解決人工智能領(lǐng)域的一些重大問題。該組織定期發(fā)布自己的人工智能和機(jī)器學(xué)習(xí)研究報(bào)告。該團(tuán)隊(duì)還在自己的網(wǎng)站上發(fā)布更多的想法。

  • 系統(tǒng):該團(tuán)隊(duì)正在構(gòu)建一個(gè)開源平臺(tái),來幫助從事人工智能的研究人員更好的了解他們所在研究的機(jī)器。例如,該團(tuán)隊(duì)建立了一個(gè)AI Gym,“一個(gè)用于研發(fā)和比較強(qiáng)化學(xué)習(xí)算法的工具包”,其中包括了各種環(huán)境,目前有模擬的機(jī)器人學(xué)任務(wù)、桌面游戲、多位數(shù)加法之類的計(jì)算任務(wù)等等。預(yù)期工具包中包含的環(huán)境將隨時(shí)間不斷增多,用戶也會(huì)將他們自己創(chuàng)建的環(huán)境加入到其中。這些環(huán)境都有一個(gè)通用交互界面,使用戶能夠編寫可以應(yīng)用于許多不同環(huán)境的通用算法。

OpenAI解決人工智能安全問題

OpenAI的整體概念是將高質(zhì)量的,谷歌、蘋果、 Facebook、 Amazon水平的AI研究開源化,沒有商業(yè)限制。正如該公司在其博客文章中所言,“因?yàn)槲覀兊难芯繘]有財(cái)務(wù)責(zé)任,所以我們能更好地專注于AI對(duì)人類的積極影響?!?/p>

超級(jí)智能的AI真的是個(gè)問題嗎?這聽起來太科幻了,甚至對(duì)馬斯克來說也是如此。火星上的殖民地或自動(dòng)駕駛是相對(duì)來說很容易的,而想象一個(gè)由人工智能引發(fā)的災(zāi)難并不是一件容易的事。這就是為什么這一領(lǐng)域的其他人對(duì)馬斯克的擔(dān)憂持批評(píng)態(tài)度。機(jī)器學(xué)習(xí)的領(lǐng)導(dǎo)者Andrew Ng說,“擔(dān)心超過人的人工智能就像擔(dān)心火星上的人口過多一樣。”

但這是馬斯克的觀點(diǎn)。沒有人在考慮這個(gè)問題。相反,他們都過于關(guān)注人工智能的商業(yè)化。他們看不到潛在的問題。

這些問題有兩方面:

  • 人工智能會(huì)無意識(shí)地做有害的事情

  • 人工智能會(huì)故意做有害的事情

即使是目前的人工智能,第一個(gè)問題也值得擔(dān)憂。比如說我們?cè)炝艘粋€(gè)人工智能清潔機(jī)器人。所有這些機(jī)器人想要做的就是確保這個(gè)世界盡可能的干凈。如果機(jī)器人只是想確保一切都是干凈的,那么它有一些選擇。第一種選擇是清理所有的混亂。這是我們想要的結(jié)果,也是人工智能開發(fā)人員所期待的結(jié)果。但這不是唯一的選擇。另一種可能性是,它將試圖從一開始就阻止可能出現(xiàn)混亂局面的可能性。人類導(dǎo)致了混亂?!叭绻麤]有人,就沒有混亂,所以讓我們清理所有人”,這增加了人工智能的效用,是解決人工智能問題的一個(gè)完全合理的解決方案。

這個(gè)人工智能安全研究是OpenAI的主要關(guān)注點(diǎn)。2016年,該公司共同撰寫了一篇研究論文,題為“人工智能安全的具體問題”。這篇論文指出了人工智能研究人員在推進(jìn)任何類型人工智能的時(shí)候需要認(rèn)真考慮的五個(gè)領(lǐng)域:

?避免負(fù)面的副作用。我們?nèi)绾未_保人工智能不會(huì)完全遵循它的編程?這樣它就有主見做一些事情來完成它的任務(wù)。

?避免賞金黑客。如果我們建立一種獎(jiǎng)賞體制來獎(jiǎng)勵(lì)做對(duì)人物的人工智能,那么人工智能可能僅僅是試圖擴(kuò)大這種獎(jiǎng)賞,而沒有實(shí)際行動(dòng),我們?nèi)绾伪苊膺@一問題?

?可伸縮的失誤范圍。我們?cè)鯓硬拍艽_保人工智能即使在訓(xùn)練樣本很少的情況也能安全的訓(xùn)練呢?比如清潔機(jī)器人會(huì)知道它要清理咖啡杯,但它如何學(xué)會(huì)不去“清理”放在桌上一夜的手機(jī)呢?

?安全探索。人工智能是否能探索可能的結(jié)果和訓(xùn)練,而不會(huì)產(chǎn)生嚴(yán)重的后果 -- 比如,學(xué)習(xí)如何擦擦地板而不試圖拖出電源插座?

?對(duì)分布變化的堅(jiān)固性。隨著數(shù)據(jù)或環(huán)境的變化,人工智能是否能繼續(xù)保持最佳狀態(tài)?如果清潔工人在辦公室里學(xué)會(huì)了打掃衛(wèi)生,那么清潔工人是否可以清理工廠的地板?

已經(jīng)有一些攻擊用于測試AI的極限。堅(jiān)固性是弱人工智能的一個(gè)特別值得關(guān)注的問題。當(dāng)你不在他們的舒適區(qū)進(jìn)行測試時(shí),他們的工作表現(xiàn)如何?答案是不太好。圖像識(shí)別機(jī)器學(xué)習(xí)算法經(jīng)常把對(duì)立的例子錯(cuò)誤分類 -- 圖像中有特定的噪點(diǎn)被注入其中。

馬斯克的人工智能未來保衛(wèi)戰(zhàn)

這是一個(gè)良性的例子。然而,不難想象這種行為可能被惡意利用。想象一下,在你的自動(dòng)駕駛汽車上的AI的惡意對(duì)立式攻擊,如果在程序中將“停止標(biāo)志”變成“綠燈”那將會(huì)出現(xiàn)什么后果。它可能比毀壞剎車片更致命,這是一種虛擬的攻擊,因此是高度可伸縮的。

人工智能安全的核心問題可以歸結(jié)為一個(gè)簡單的問題:我們?nèi)绾未_保人工智能和我們想要的東西是一樣的?OpenAI正試圖在這一領(lǐng)域研究。盡管它專注于這一領(lǐng)域,但它并不是單獨(dú)工作。GoogleBrain、斯坦福大學(xué)和加州大學(xué)伯克利分校的研究人員也在研究這一問題。

OpenAI解決超級(jí)智能問題

但是,由于超級(jí)智能并不是具體的問題,所以這一領(lǐng)域只有OpenAI。

這種擔(dān)憂背后的主要原因是人工智能的學(xué)習(xí)速度。贏得Dota2的機(jī)器人就是一個(gè)很好的例子。從4月份開始,它在每次迭代中都穩(wěn)步增加了它的能力。

馬斯克的人工智能未來保衛(wèi)戰(zhàn)

這張圖測量了OpenAI的最好的機(jī)器人的TrueSkill等級(jí) -- 類似于國際象棋中的“ELO”等級(jí)-- 這是該機(jī)器人與其他被訓(xùn)練的OpenAI機(jī)器人的獲勝比率的總結(jié)。

人類需要學(xué)幾年的東西,人工智能的幾個(gè)月就能學(xué)會(huì)。DeepMind的AlphaZero最近在國際象棋領(lǐng)域取得的成功,進(jìn)一步推進(jìn)了這一過程。它學(xué)會(huì)了如何在數(shù)小時(shí)內(nèi)就打敗最好的象棋計(jì)算機(jī)。

從隨機(jī)下棋開始,AlphaZero除了游戲規(guī)則之外沒有任何這個(gè)領(lǐng)域的知識(shí),它在24小時(shí)內(nèi)就完成了在國際象棋和日本棋局上的超人類水平的游戲,并且每一次都擊敗了世界冠軍的程序。

AI通過強(qiáng)化學(xué)習(xí)來學(xué)習(xí)。AI玩了成千上萬的游戲,從每一個(gè)游戲中不斷地學(xué)習(xí)。AlphaZero同時(shí)在5000個(gè)張量處理單元上運(yùn)行,這是一種專門構(gòu)建的處理單元,可以使用Google的TensorFlow框架來運(yùn)行機(jī)器學(xué)習(xí)算法。每一個(gè)單元的學(xué)習(xí)被結(jié)合起來,創(chuàng)造出“一個(gè)超人類的游戲水平”。

這些仍然是弱人工智能。但是,通用人工智能(AGI),可以利用這些技術(shù)來輔助自己。人工智能已經(jīng)學(xué)會(huì)了自我發(fā)展。

“ 幾個(gè)月前,我們引入了AutoML項(xiàng)目,這是一種自動(dòng)設(shè)計(jì)機(jī)器學(xué)習(xí)模型的方法…我們發(fā)現(xiàn)AutoML可以設(shè)計(jì)出與人類專家設(shè)計(jì)的神經(jīng)網(wǎng)絡(luò)相媲美的小型神經(jīng)網(wǎng)絡(luò)?!薄?谷歌研究博客

一個(gè)AGI可以測試數(shù)百萬個(gè)更新、更好的AGIs,從每個(gè)參數(shù)中挑選最好的參數(shù),并將它們組合起來,使它立即變得更智能。然后,更智能的AGI就會(huì)重新開始這個(gè)過程。這是加速回報(bào)的法則。未來正在加速。學(xué)得越快的AI就發(fā)展得越快。

馬斯克的觀點(diǎn)是,我們是棋盤上的皇帝。直到事情結(jié)束,我們才會(huì)意識(shí)到我們的錯(cuò)誤。前一分鐘我們還是這個(gè)星球上的最高生物,下一分鐘我們就可能被超越了。在幾秒鐘內(nèi),人工智能就大大超越了我們的能力。人類沒有回頭路可走。我們變成了至高無上的人工智能腳下的螞蟻。

對(duì)于OpenAI,該計(jì)劃的目標(biāo)是讓公眾充分意識(shí)到人工智能所能代表的威脅,從而使它能夠主動(dòng)地受到監(jiān)管和控制。然而,OpenAI并不是馬斯克在這場大火中唯一的武器。他還投資了一種對(duì)沖基金,讓人類將自己從人工智能中拯救出來,像是一種對(duì)于人類未來的保險(xiǎn)。

它被稱為Neuralink,它的想法是在我們被取代之前,對(duì)人類進(jìn)行數(shù)字化的增強(qiáng)。

信息來源:cb insights


關(guān)注【AI商業(yè)報(bào)道】,回復(fù)【2017白皮書】,可獲得干貨《2017人工智能產(chǎn)業(yè)發(fā)展白皮書》!

馬斯克的人工智能未來保衛(wèi)戰(zhàn)

免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請(qǐng)進(jìn)一步核實(shí),并對(duì)任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對(duì)有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識(shí)產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書面權(quán)利通知或不實(shí)情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會(huì)依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。

2018-02-08
馬斯克的人工智能未來保衛(wèi)戰(zhàn)
2月7日,重型獵鷹火箭運(yùn)載火箭發(fā)射成功,新的人類最強(qiáng)現(xiàn)役運(yùn)載火箭就此誕生。

長按掃碼 閱讀全文