Game Over?強AI與弱AI之爭

由于谷歌的人工智能 (AI) 子公司 DeepMind幾周前發(fā)表了一篇論文(論文地址:https://arxiv.org/pdf/2205.06175.pdf),描述了他們稱為 Gato 的“通才”代理(可以使用相同的訓(xùn)練模型執(zhí)行不同的任務(wù)),并聲稱通用人工智能 (AGI) 可以通過可以通過純粹的規(guī)?;瘜崿F(xiàn),由此在人工智能行業(yè)內(nèi)引發(fā)了激烈的爭論。雖然看起來有點學(xué)術(shù)性,但現(xiàn)實情況是,如果通用人工智能指日可待,我們的社會——包括我們的法律、法規(guī)和經(jīng)濟模型,都還沒有準備好。

事實上,多虧了同一個訓(xùn)練有素的模型,通才代理 Gato 能夠玩 Atari、為圖片添加字幕、聊天或用真正的機械臂堆疊積木。它還可以根據(jù)其上下文決定是否輸出文本、連接扭矩、按鈕按下或其他標記。因此,它看起來確實是比流行的 GPT-3、DALL-E 2、PaLM 或 Flamingo 更通用的 AI 模型,這些模型在非常狹窄的特定任務(wù)上變得非常出色,例如自然語言寫作、語言理解或根據(jù)描述創(chuàng)建圖像。

這讓DeepMind的科學(xué)家、牛津大學(xué)教授南多·德弗萊塔斯(Nando de Freitas)聲稱“現(xiàn)在一切都與規(guī)模有關(guān)!游戲結(jié)束!” ,并認為人工通用智能(AGI)可以通過完全規(guī)?;?即更大的模型、更大的訓(xùn)練數(shù)據(jù)集和更強的計算能力)來實現(xiàn)。然而,de Freitas說的游戲”是什么“?這場辯論到底是關(guān)于什么呢?

人工智能之爭:強人工智能與弱人工智能

在討論這場辯論的細節(jié)及其對更廣泛社會的影響之前,有必要先退一步了解一下背景?!叭斯ぶ悄?,Artificial Intelligence”一詞的含義多年來一直在變化,但從高級和通用的角度來看,它可以被定義為智能代理的研究領(lǐng)域,它指的是任何感知其環(huán)境并采取行動,以最大限度地實現(xiàn)其目標的機會的系統(tǒng)。這一定義有意地將代理或機器是否真的會“思考”的問題置之度外,因為這一問題長期以來一直是激烈爭論的對象。1950年,英國數(shù)學(xué)家阿蘭·圖靈在他著名的《模仿游戲》論文中主張,與其考慮機器是否會思考,不如關(guān)注“機器是否有可能表現(xiàn)出智能行為”。

這種區(qū)別在概念上導(dǎo)致了人工智能的兩個主要分支:強人工智能和弱人工智能。強人工智能,也稱為通用人工智能 (AGI) ,是人工智能的一種理論形式,機器需要與人類相同的智能。因此,它將具有自我意識,具有解決問題、學(xué)習(xí)和規(guī)劃未來的能力。這是人工智能最雄心勃勃的定義,“人工智能的圣杯”——但目前,這仍然是純粹的理論。實現(xiàn)強人工智能的方法通常圍繞符號人工智能,即機器形成物理和抽象“世界”的內(nèi)部符號表示,因此可以應(yīng)用規(guī)則或推理來進一步學(xué)習(xí)和做出決定。

雖然這一領(lǐng)域的研究仍在繼續(xù),但迄今為止,它在解決現(xiàn)實生活問題方面取得的成功有限,因為世界的內(nèi)部或象征性表征會隨著規(guī)模的擴大而迅速變得難以管理。

弱人工智能,也稱為“狹義人工智能”,是一種沒有那么雄心勃勃的人工智能方法,專注于執(zhí)行特定任務(wù),例如根據(jù)用戶輸入回答問題、識別人臉或下棋,同時依靠人類干預(yù)來定義其學(xué)習(xí)算法的參數(shù)并提供相關(guān)的訓(xùn)練數(shù)據(jù)以確保準確性。

然而,在弱人工智能方面取得了顯著進步,眾所周知的例子包括人臉識別算法、自然語言模型(如OpenAI的GPT-n)、虛擬助手(如Siri或Alexa)、谷歌/DeepMind的下棋程序AlphaZero,以及在一定程度上的無人駕駛汽車。

實現(xiàn)弱人工智能的方法通常圍繞使用人工神經(jīng)網(wǎng)絡(luò)展開,人工神經(jīng)網(wǎng)絡(luò)是受構(gòu)成動物大腦的生物神經(jīng)網(wǎng)絡(luò)啟發(fā)的系統(tǒng)。它們是互連節(jié)點或神經(jīng)元的集合,結(jié)合激活函數(shù),該函數(shù)根據(jù)“輸入層”中呈現(xiàn)的數(shù)據(jù)和互連中的權(quán)重確定輸出。為了調(diào)整互連中的權(quán)重以使“輸出”有用或正確,可以通過暴露于許多數(shù)據(jù)示例和“反向傳播”輸出損失來“訓(xùn)練”網(wǎng)絡(luò)。

可以說,還有第三個分支叫做“神經(jīng)符號人工智能”,它將神經(jīng)網(wǎng)絡(luò)和基于規(guī)則的人工智能結(jié)合在一起。雖然在概念上很有希望,也很合理,因為它似乎更接近我們生物大腦的運作方式,但它仍處于非常早期的階段。

這真的是規(guī)模的問題嗎?

當前爭論的關(guān)鍵是,有了足夠規(guī)模的AI和機器學(xué)習(xí)模型,是否能夠真正實現(xiàn)人工通用智能(AGI),從而徹底擺脫符號人工智能。其現(xiàn)在只是一個硬件擴展和優(yōu)化問題,還是我們需要在 AI 算法和模型中發(fā)現(xiàn)和開發(fā)更多?特斯拉似乎也在接受谷歌/DeepMind的觀點。在2021年的人工智能(AI)日活動上,特斯拉宣布推出特斯拉機器人(Tesla Bot ),也被稱為擎天柱(Optimus),這是一款通用人形機器人,將由特斯拉為其汽車中使用的高級駕駛輔助系統(tǒng)開發(fā)的同一套AI系統(tǒng)控制。有趣的是,該公司首席執(zhí)行官埃隆·馬斯克表示,他希望在2023年之前將機器人投入生產(chǎn),并聲稱擎天柱最終將能夠做“任何人類不想做的事情”,這意味著他預(yù)計AGI屆時將成為可能。

然而,其他人工智能研究團隊——主要包括Yann LeCun, Meta的首席人工智能科學(xué)家和紐約大學(xué)教授,他們更喜歡沒有那么雄心勃勃的人類人工智能 (HLAI)一詞——認為仍有很多問題需要解決,而且純粹計算能力無法解決這些問題,可能需要新模型甚至軟件范例。在這些問題中,機器有能力通過像嬰兒一樣的觀察來了解世界是如何運作的,通過它的行動來預(yù)測如何影響世界,處理世界固有的不可預(yù)測性,預(yù)測一系列行動的影響從而能夠推理和計劃,并在抽象空間中表示和預(yù)測。最終,爭論的焦點是,這是否可以通過僅用我們現(xiàn)有的人工神經(jīng)網(wǎng)絡(luò)進行基于梯度的學(xué)習(xí)來實現(xiàn),或者是否需要更多的突破。

雖然深度學(xué)習(xí)模型確實能夠在不需要人工干預(yù)的情況下從數(shù)據(jù)中產(chǎn)生“關(guān)鍵特征”,因此人們很容易相信,它們將能夠利用更多的數(shù)據(jù)和計算能力來挖掘和解決剩余的問題,但這可能太好了,以致于不真實。打個簡單的比方,設(shè)計和制造越來越快、越來越強大的汽車并不會讓它們飛起來,因為我們需要充分了解空氣動力學(xué)才能首先解決飛行問題。使用深度學(xué)習(xí)AI模型取得的進展令人印象深刻,但值得思考的是,弱AI從業(yè)者的樂觀觀點是否僅僅是馬斯洛之錘或“工具法則”的案例,即“如果你擁有的唯一工具是一把錘子,你往往會把每個問題都視為釘子”。

游戲結(jié)束 or 攜手合作?

像谷歌/DeepMind、Meta或特斯拉這樣的基礎(chǔ)研究通常讓私營企業(yè)感到不安,因為盡管它們的預(yù)算很大,但這些組織往往更傾向于競爭和上市速度,而不是學(xué)術(shù)合作和長期思考。

解決通用人工智能可能需要兩種方法,而不是強弱 AI 支持者之間的競爭。用人腦進行類比并不牽強,人腦具有有意識和無意識的學(xué)習(xí)能力。我們的小腦約占大腦體積的 10%,但包含超過 50% 的神經(jīng)元總數(shù),負責與運動技能相關(guān)的協(xié)調(diào)和運動,尤其是手和腳,以及保持姿勢和平衡。這是在不知不覺中快速完成的,我們無法真正解釋我們是如何做到的。然而,我們有意識的大腦雖然慢得多,但能夠處理抽象概念、計劃和預(yù)測。此外,有意識地獲取知識是可能的,通過訓(xùn)練和重復(fù),實現(xiàn)自動化——這是職業(yè)運動員所擅長的。

人們不禁要問,如果大自然在幾十萬年的時間里以這種混合的方式進化了人類的大腦,為什么一般的人工智能系統(tǒng)會依賴于單一的模型或算法。

對社會和投資者的影響

不考慮最終實現(xiàn)通用人工智能的特定潛在AI技術(shù),這一事件將對我們的社會產(chǎn)生巨大的影響——就像輪子、蒸汽機、電力或計算機一樣??梢哉f,如果企業(yè)可以完全用機器人取代人力,我們的資本主義經(jīng)濟模式將需要改變,否則社會動蕩最終會隨之而來。說了這么多,很可能正在進行的辯論有點像企業(yè)公關(guān),事實上,通用人工智能比我們目前認為的更遠,因此我們有時間解決它的潛在影響。然而,在較短的時間內(nèi),很明顯,對通用人工智能的追求將繼續(xù)推動特定技術(shù)領(lǐng)域的投資,如軟件和半導(dǎo)體。

弱人工智能框架下特定用例的成功導(dǎo)致對我們現(xiàn)有硬件能力面臨的壓力越來越大。 例如,2020 年推出的流行的 Generative Pre-Trained Transformer 3 (GPT-3) 模型 OpenAI,已經(jīng)能夠以與人類相當?shù)牧鲿扯染帉懺忌⑽?,它擁?1750 億個參數(shù),需要幾個月的時間來訓(xùn)練。

可以說,當今一些現(xiàn)有的半導(dǎo)體產(chǎn)品——包括 CPU、GPU 和 FPGA——能夠或多或少地有效地計算深度學(xué)習(xí)算法。 然而,隨著模型大小的增加,它們的性能變得不能令人滿意,并且出現(xiàn)了針對 AI 工作負載優(yōu)化的定制設(shè)計的需求。 亞馬遜、阿里巴巴、百度和谷歌等領(lǐng)先的云服務(wù)供應(yīng)商,以及特斯拉和各種半導(dǎo)體初創(chuàng)企業(yè),如寒武紀、Cerebras、Esperanto、Graphcore、Groq、Mythic 和 Sambanova,都采用了這條路線。

文/千家網(wǎng)編譯

極客網(wǎng)企業(yè)會員

免責聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關(guān)資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負任何法律責任。任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。

2022-06-23
Game Over?強AI與弱AI之爭
如果通用人工智能指日可待,我們的社會——包括我們的法律、制度和經(jīng)濟模式,都還沒有準備好……

長按掃碼 閱讀全文