人工智能的未來:通用人工智能

ByCharles Simon

為了獲得對人工智能的真正理解,研究人員應(yīng)該把注意力轉(zhuǎn)移到開發(fā)一種基本的、潛在的AGI技術(shù)上,這種技術(shù)可以復(fù)制人類對環(huán)境的理解。

谷歌、微軟和 Facebook 等行業(yè)巨頭,Elon Musk 的 OpenAI 等研究實驗室,甚至 SingularityNET 等平臺都在押注通用人工智能(AGI)——智能代理理解或?qū)W習(xí)人類無法完成的任何智力任務(wù)的能力,這代表了人工智能技術(shù)的未來。

然而,有點令人驚訝的是,這些公司都沒有專注于開發(fā)一種基本的、底層的 AGI 技術(shù)來復(fù)制人類的上下文理解。這可能解釋了為什么這些公司正在進行的研究完全依賴于具有不同程度特異性并依賴于當(dāng)今人工智能算法的智能模型。

不幸的是,這種依賴意味著,人工智能充其量只能表現(xiàn)出智能。無論他們的能力多么令人印象深刻,他們?nèi)匀蛔裱S多變量的預(yù)定腳本。因此,即使是GPT3或 Watson 等大型、高度復(fù)雜的程序也只能表現(xiàn)出理解能力。實際上,他們不理解文字和圖像代表了物理宇宙中存在并相互作用的物理事物。時間的概念或原因產(chǎn)生影響的想法對他們來說是完全陌生的。

這并不是要剝奪今天人工智能的能力。例如,谷歌能夠以令人難以置信的速度搜索大量信息,以提供用戶想要的結(jié)果(至少大多數(shù)時候是這樣)。Siri等個人助理可以預(yù)訂餐廳、查找和閱讀電子郵件,并實時給出指示。這個列表還在不斷擴展和改進中。

但無論這些程序多么復(fù)雜,它們?nèi)栽趯ふ逸斎氩⒆龀鐾耆蕾囉谄浜诵臄?shù)據(jù)集的特定輸出響應(yīng)。如果不相信,請向客戶服務(wù)機器人詢問一個“計劃外”的問題,該機器人可能會生成一個毫無意義的響應(yīng)或根本沒有響應(yīng)。

總之,谷歌、Siri或任何其他目前的AI例子都缺乏真正的、常識性的理解,這最終將阻止它們向人工通用智能(Artificial General Intelligence)發(fā)展。原因可以追溯到過去50年大多數(shù)人工智能發(fā)展的主要假設(shè),即如果困難的問題能夠解決,簡單的智能問題就會得到解決。這一假設(shè)可以用莫拉維克悖論(Moravec’s Paradox)來形容,它認為,讓計算機在智力測試中表現(xiàn)出成人水平的表現(xiàn)相對容易,但在感知和行動能力方面,讓它們具備一歲嬰兒的技能卻很難。

人工智能研究人員的假設(shè)也是錯誤的,他們認為,如果構(gòu)建了足夠多的狹義人工智能應(yīng)用,它們最終將共同成長為通用智能。與兒童可以毫不費力地整合視覺、語言和其他感官的方式不同,狹義的AI應(yīng)用無法以一種通用的方式存儲信息,從而允許信息被共享并隨后被其他AI應(yīng)用使用。

最后,研究人員錯誤地認為,如果可以建立一個足夠大的機器學(xué)習(xí)系統(tǒng)和足夠的計算機能力,它就會自發(fā)地表現(xiàn)出通用智能。這也被證明是錯誤的。正如試圖獲取特定領(lǐng)域知識的專家系統(tǒng)無法創(chuàng)建足夠的案例和示例數(shù)據(jù)來克服潛在的缺乏理解一樣,人工智能系統(tǒng)也無法處理“非計劃內(nèi)的”請求,無論其規(guī)模有多大。

通用人工智能基礎(chǔ)知識

為了獲得真正的人工智能理解,研究人員應(yīng)該將注意力轉(zhuǎn)移到開發(fā)一種基本的、潛在的 AGI 技術(shù),以復(fù)制人類對上下文的理解。例如,考慮一個 3 歲兒童玩積木時表現(xiàn)出的情境意識和情境理解。3 歲的孩子明白積木存在于三維世界中,具有重量、形狀和顏色等物理特性,如果堆疊得太高會掉下來。孩子還理解因果關(guān)系和時間流逝的概念,因為積木在首先被堆疊之前不能被擊倒。

3 歲也可以變成 4 歲,然后是 5 歲,最后是 10 歲,以此類推。簡而言之,3 歲兒童的能力與生俱來,包括成長為功能齊全、普遍聰明的成年人的能力。對于今天的人工智能來說,這樣的增長是不可能的。不管它多么復(fù)雜,今天的人工智能仍然完全不知道它在其環(huán)境中的存在。它不知道現(xiàn)在采取的行動會影響未來的行動。

雖然認為一個從未經(jīng)歷過自身訓(xùn)練數(shù)據(jù)之外的任何事情的人工智能系統(tǒng)能夠理解現(xiàn)實世界的概念是不現(xiàn)實的,但為人工智能添加移動感覺艙可以讓人工實體從現(xiàn)實環(huán)境中學(xué)習(xí),并展示出對現(xiàn)實中物理對象、因果關(guān)系和時間流逝的基本理解。就像那個3歲的孩子一樣,這個配備了感覺艙的人工實體能夠直接學(xué)習(xí)如何堆疊積木、移動物體、隨著時間的推移執(zhí)行一系列的行動,并從這些行動的后果中學(xué)習(xí)。

通過視覺、聽覺、觸覺、操縱器等,人工實體可以學(xué)習(xí)以純文本或純圖像系統(tǒng)根本不可能的方式進行理解。如前所述,無論它們的數(shù)據(jù)集有多大和多變,這樣的系統(tǒng)根本無法理解和學(xué)習(xí)。一旦實體獲得了這種理解和學(xué)習(xí)的能力,甚至有可能移除感覺莢。

雖然在這一點上,我們無法量化需要多少數(shù)據(jù)來表示真正的理解,但我們可以推測,大腦中一定有一個合理的比例與理解有關(guān)。畢竟,人類是在已經(jīng)經(jīng)歷和學(xué)習(xí)過的一切事物的背景下解釋一切事物的。作為成年人,我們用生命最初幾年學(xué)到的知識來解釋一切。考慮到這一點,似乎只有AI社區(qū)認識到這一事實,并采取必要步驟建立基本的理解基礎(chǔ),真正的人工通用智能才有可能完全出現(xiàn)。

極客網(wǎng)企業(yè)會員

免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關(guān)資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責(zé)。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負任何法律責(zé)任。任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。

2022-06-20
人工智能的未來:通用人工智能
通用機器人離我們到底還有多遠?

長按掃碼 閱讀全文