廣義人工智能時(shí)代:通往通用人工智能(AGI)之路
By Imtiaz Adam
人工智能(AI)將于2024年進(jìn)一步改進(jìn),大型語(yǔ)言模型有望進(jìn)一步發(fā)展。
2023年對(duì)于人工智能和生成式人工智能來(lái)說(shuō)是激動(dòng)人心的一年,特別是那些采用大型語(yǔ)言模型(LLM)架構(gòu)的人工智能,比如來(lái)自開(kāi)放人工智能(GPT 4)、Anthropic(Claude)和開(kāi)源社區(qū)(Llama 2、Falcon、Mistral、Mixtral等)的模型,獲得了動(dòng)力和快速采用。
2024年可能會(huì)是更加激動(dòng)人心的一年,因?yàn)槿斯ぶ悄軐⒊蔀榘–ES 2024在內(nèi)的所有地方的中心舞臺(tái),大型語(yǔ)言模型有望進(jìn)一步發(fā)展。
什么是人工智能(AI)以及我們處于什么階段?
人工智能涉及開(kāi)發(fā)計(jì)算系統(tǒng)的領(lǐng)域,這些系統(tǒng)能夠執(zhí)行人類非常擅長(zhǎng)的任務(wù),如識(shí)別物體,識(shí)別和理解語(yǔ)音,以及在受限環(huán)境下做出決策。
狹義人工智能(ANI):人工智能的一個(gè)領(lǐng)域,機(jī)器被設(shè)計(jì)為執(zhí)行單一任務(wù),并且機(jī)器非常擅長(zhǎng)執(zhí)行該特定任務(wù)。然而,一旦機(jī)器被訓(xùn)練,就不能推廣到未知的領(lǐng)域。這是人工智能的形式,例如,Google翻譯,代表了我們直到最近所處的人工智能時(shí)代。
廣義人工智能(ABI):麻省理工學(xué)院IBM沃森實(shí)驗(yàn)室解釋道:“廣義人工智能是下一個(gè)。我們剛剛進(jìn)入這個(gè)前沿領(lǐng)域,但當(dāng)它完全實(shí)現(xiàn)時(shí),它將以使用和集成多模式數(shù)據(jù)流的人工智能系統(tǒng)為特色,更有效、更靈活地學(xué)習(xí),并跨越多個(gè)任務(wù)和領(lǐng)域。廣義的人工智能將對(duì)商業(yè)和社會(huì)產(chǎn)生強(qiáng)大的影響?!?p>IBM進(jìn)一步解釋:“在單一領(lǐng)域執(zhí)行特定任務(wù)的系統(tǒng)正在讓位于廣義的人工智能,后者可以更廣泛地學(xué)習(xí),并跨領(lǐng)域和跨問(wèn)題工作。在大型未標(biāo)記數(shù)據(jù)集上訓(xùn)練并針對(duì)一系列應(yīng)用進(jìn)行微調(diào)的基礎(chǔ)模型正在推動(dòng)這一轉(zhuǎn)變。”
廣義的人工智能能力是最近出現(xiàn)的,F(xiàn)rancois Chollet在2019年提出“即使是當(dāng)今最先進(jìn)的人工智能系統(tǒng)也不屬于這個(gè)類別......”
廣義人工智能是一個(gè)復(fù)雜的自適應(yīng)系統(tǒng),它憑借其感官知覺(jué)、先前的經(jīng)驗(yàn)和學(xué)到的技能成功地執(zhí)行任何認(rèn)知任務(wù)。
但作者澄清,ABI模型不具備人腦的整體通用能力。
通用人工智能(AGI):人工智能的一種形式,可以完成人類可以完成的任何智力任務(wù)。它更有意識(shí),做出的決策與人類的決策方式類似。它也被稱為“強(qiáng)人工智能”,IBM將AGI或強(qiáng)人工智能描述為擁有與人類同等的智能,具有自我意識(shí)和解決問(wèn)題、學(xué)習(xí)和規(guī)劃未來(lái)的能力。實(shí)際上,它將產(chǎn)生“與人類思維沒(méi)有區(qū)別的智能機(jī)器”。
目前,AGI仍然是一個(gè)愿望,有各種預(yù)測(cè),從2025年到2049年,甚至永遠(yuǎn)不會(huì)到來(lái)。它可能會(huì)在未來(lái)十年內(nèi)實(shí)現(xiàn),但面臨著硬件方面的挑戰(zhàn),即當(dāng)今強(qiáng)大機(jī)器所需的能源消耗。作者個(gè)人認(rèn)為,2030年代是一個(gè)比較有可能到來(lái)的時(shí)間。
超級(jí)人工智能(ASI):是一種在所有領(lǐng)域都超過(guò)人類表現(xiàn)的智能形式(由Nick Bostrom定義)。這是指一般智慧、解決問(wèn)題和創(chuàng)造力等方面。作者個(gè)人的觀點(diǎn)是,人類將通過(guò)人機(jī)接口(可能是無(wú)線帽或耳機(jī))來(lái)利用先進(jìn)的人工智能,成為ASI(未來(lái)可能是神經(jīng)擬態(tài)計(jì)算與量子能力的合并,被稱為量子神經(jīng)擬態(tài)計(jì)算)。
如今我們?cè)谌斯ぶ悄芊矫嫣幱谑裁次恢茫?/strong>
Open AI的GPT-4的到來(lái)引發(fā)了社交媒體上的大量爭(zhēng)論,一些人認(rèn)為,由于GPT-4不是狹義的人工智能,因此它必須是通用人工智能(AGI)。作者將解釋后者并非如此。
AGI不太可能在一夜之間神奇地出現(xiàn),而更有可能通過(guò)人工智能研究和開(kāi)發(fā)的持續(xù)進(jìn)化進(jìn)步過(guò)程而實(shí)現(xiàn)。
直到最近,我們一直處于狹義人工智能時(shí)代。然而,許多最先進(jìn)的(SOTA)模型現(xiàn)在可以超越狹義的人工智能(ANI),我們?cè)絹?lái)越多地體驗(yàn)利用LLM的生成式AI模型,這些模型反過(guò)來(lái)又應(yīng)用具有自注意力機(jī)制架構(gòu)的變壓器,它們是能夠展示多模式、多任務(wù)處理能力。
然而,說(shuō)當(dāng)前的SOTA模型處于人腦水平(AGI)是不準(zhǔn)確的,特別是在邏輯和推理任務(wù)方面,包括常識(shí)。
我們正處于廣義人工智能(或ABI)時(shí)代,在這個(gè)時(shí)代,生成式人工智能模型既不是狹義的,因?yàn)樗鼈兛梢詧?zhí)行多個(gè)任務(wù);但也不是AGI,因?yàn)樗鼈儧](méi)有達(dá)到人類大腦的智力和能力水平。
科幻電影中的先進(jìn)機(jī)器人還沒(méi)有出現(xiàn)在我們的日常生活中,但是隨著人工智能技術(shù)的進(jìn)步,人工智能越來(lái)越多地嵌入到先進(jìn)的機(jī)器人中,機(jī)器人技術(shù)正在迅速發(fā)展,例如斯坦福大學(xué)的研究人員推出了移動(dòng)Aloha機(jī)器人,它可以向人類學(xué)習(xí)做飯、打掃衛(wèi)生、洗衣服。
通往先進(jìn)人工智能能力的道路
內(nèi)存:據(jù)傳GPT-5將解決這個(gè)問(wèn)題,其他模型也一直在尋求解決內(nèi)存問(wèn)題,以便AI代理能夠回憶起之前的參與情況。此外,在記憶和LLM方面,值得注意的是Dale Schuurmann的論文(2023年)以及Jesus Rodriguez提供的概述,還有Langchain的潛力、王等人(2023)發(fā)表了用長(zhǎng)期記憶增強(qiáng)語(yǔ)言模型。邏輯、推理、因果推理:常識(shí)和因果推理是LLM和深度神經(jīng)網(wǎng)絡(luò)/機(jī)器學(xué)習(xí)模型的其他領(lǐng)域經(jīng)常遇到困難的領(lǐng)域。雖然思維鏈(CoT)已顯示出希望,但生成式AI模型仍遠(yuǎn)未達(dá)到先進(jìn)的人類邏輯推理水平。神經(jīng)符號(hào)方法,包括通過(guò)LLM插件利用符號(hào)人工智能,可能有助于在未來(lái)解決這些問(wèn)題,并為通向AGI開(kāi)辟道路。從更小的數(shù)據(jù)集學(xué)習(xí):零樣本學(xué)習(xí)和零樣本提示,以及具有自關(guān)注機(jī)制的變壓器采用自監(jiān)督學(xué)習(xí),以提高人工智能能力的狀態(tài)。微調(diào),師生模型初始訓(xùn)練之外,持續(xù)更新的世界知識(shí)–RAG:檢索增強(qiáng)生成使LLM模型能夠通過(guò)互聯(lián)網(wǎng)連接到外部數(shù)據(jù)源,或通過(guò)Langchain或LlamaIndex等框架連接到私有數(shù)據(jù),并檢索最新信息。對(duì)不確定世界的動(dòng)態(tài)響應(yīng)/動(dòng)態(tài)學(xué)習(xí)。多模式多任務(wù)處理:LLM正在開(kāi)發(fā)多模式、多任務(wù)處理功能,Open AI的GPT 5預(yù)計(jì)將展示這些功能,其他模型也是如此。數(shù)據(jù):訪問(wèn)、有效且高效的存儲(chǔ)、安全性和質(zhì)量都是人工智能模型的關(guān)鍵。越來(lái)越多的合成數(shù)據(jù)本身可能是由生成式人工智能模型創(chuàng)建的,可能在人工智能的發(fā)展中發(fā)揮關(guān)鍵作用。模型行為-強(qiáng)化學(xué)習(xí)(RL):將人類反饋強(qiáng)化學(xué)習(xí)(RLHF)應(yīng)用于LLM,以減少偏差,同時(shí)提高性能、公平性和代表性。RLHF需要一個(gè)動(dòng)態(tài)環(huán)境,在這個(gè)環(huán)境中,當(dāng)AI代理進(jìn)入一個(gè)新的狀態(tài)(AI代理采取的行動(dòng))時(shí),它會(huì)尋求最大的獎(jiǎng)勵(lì)(獲得最優(yōu)或至少更好的行動(dòng)),并在什么是RLHF中提供了一個(gè)很好的概述。提高LLM效率的技術(shù)
科術(shù)專業(yè)和開(kāi)源社區(qū)一直在推進(jìn)使LLM模型更加高效的方法。對(duì)于開(kāi)源社區(qū)而言,尋找效率的解決方案非常重要,因?yàn)樯鐓^(qū)中許多人缺乏大型專業(yè)的資源。然而,即使是技術(shù)專業(yè)人士也越來(lái)越意識(shí)到,將大規(guī)模的LLM模型擴(kuò)展到大量用戶會(huì)導(dǎo)致巨大的服務(wù)器成本和能源成本,從而對(duì)碳足跡不利。
使生成式AI模型更加高效的進(jìn)步示例:
LoRA:是一種在訓(xùn)練過(guò)程中顯著減少參數(shù)數(shù)量的技術(shù),它通過(guò)將更少數(shù)量的新權(quán)重插入模型中而只訓(xùn)練這些新權(quán)重來(lái)實(shí)現(xiàn)。這反過(guò)來(lái)又導(dǎo)致訓(xùn)練過(guò)程顯著更快,內(nèi)存效率更高,并且由于降低了模型權(quán)重而更容易共享和存儲(chǔ)。Flash Attention是另一項(xiàng)創(chuàng)新,它可以快速和高效地利用內(nèi)存,具有輸入和輸出意識(shí)的精確注意力。模型修剪:可以對(duì)這些非必要的組件進(jìn)行修剪,使模型更加緊湊,同時(shí)保持模型的性能。LLM量化:量化是一種壓縮技術(shù),可將這些參數(shù)轉(zhuǎn)換為單字節(jié)或更小的整數(shù),從而顯著減小LLM的大小。
此外,硬件解決方案還可以提高計(jì)算資源效率,從而節(jié)省能源和減少碳足跡,例如第五代英特爾至強(qiáng)可擴(kuò)展處理器、IBM正在利用模擬AI芯片等開(kāi)展的工作。這將推動(dòng)AIoT的興起,在電力有限的環(huán)境中,人工智能可以跨設(shè)備擴(kuò)展網(wǎng)絡(luò)邊緣,而效率和低延遲是關(guān)鍵。
企業(yè)可能希望考慮平衡性能能力與資源成本(包括能源和碳足跡的計(jì)算成本),和硬件的凈現(xiàn)值回報(bào)(NPV)或投資回報(bào)(ROI)的模型架構(gòu)。高效的硬件,如第五代英特爾至強(qiáng)可擴(kuò)展處理器可能提供,特別是對(duì)于推理和/或微調(diào)模型低延遲小于200億個(gè)參數(shù)的模型,如作者之前提出的。
作者認(rèn)為,從長(zhǎng)遠(yuǎn)來(lái)看,量子計(jì)算可能為推動(dòng)人工智能邁向ASI提供潛在的途徑,然而,峰值神經(jīng)網(wǎng)絡(luò)與樹(shù)突計(jì)算和神經(jīng)形態(tài)計(jì)算相結(jié)合,可能會(huì)為AGI(也很節(jié)能)提供一條可能的途徑。
與深度學(xué)習(xí)中典型的人工神經(jīng)網(wǎng)絡(luò)(ANN)架構(gòu)相比,峰值神經(jīng)網(wǎng)絡(luò)(SNN)與樹(shù)突計(jì)算相結(jié)合時(shí),更接近我們自己的人類大腦。相對(duì)于人工神經(jīng)網(wǎng)絡(luò),SNN更節(jié)能,并且可以被設(shè)計(jì)成超低延遲,可以參與持續(xù)學(xué)習(xí),并且由于它們可以部署在網(wǎng)絡(luò)的邊緣,因此數(shù)據(jù)更加安全
神經(jīng)科學(xué)家發(fā)現(xiàn)樹(shù)突有助于解釋我們大腦獨(dú)特的計(jì)算能力,據(jù)報(bào)道,科學(xué)家首次觀察到人腦內(nèi)一種被認(rèn)為是獨(dú)特的細(xì)胞信息傳遞形式,并可能表明我們的人腦擁有比之前認(rèn)為的更強(qiáng)大的計(jì)算能力。
研究已經(jīng)闡明了樹(shù)突放大的潛在計(jì)算優(yōu)勢(shì),以及利用樹(shù)突特性推進(jìn)機(jī)器學(xué)習(xí)和神經(jīng)啟發(fā)計(jì)算的潛力。
此外,研究還表明,僅靠樹(shù)突就可以執(zhí)行復(fù)雜的計(jì)算,因此單個(gè)神經(jīng)元的多并行處理能力遠(yuǎn)遠(yuǎn)超出了常規(guī)假設(shè)。
研究人員正在尋求更好地了解記憶如何存儲(chǔ)在大腦內(nèi)的樹(shù)突棘中,以及治療阿爾茨海默氏癥等疾病的潛力。這表明樹(shù)突在人腦中發(fā)揮著重要作用,但ANN架構(gòu)并不具有樹(shù)突。
而且,樹(shù)突預(yù)處理已被證明可以減少閾值性能所需的網(wǎng)絡(luò)大小。此外,具有樹(shù)突計(jì)算的SNN可能需要以瓦數(shù)而不是兆瓦數(shù)運(yùn)行。
通過(guò)利用模擬信號(hào)和連續(xù)動(dòng)態(tài),神經(jīng)形態(tài)計(jì)算可以提高人工智能應(yīng)用的速度、準(zhǔn)確性和適應(yīng)性,同時(shí)克服傳統(tǒng)計(jì)算的限制,例如延遲、功耗和可擴(kuò)展性。
這將導(dǎo)致萬(wàn)物互聯(lián)(IoE),其中高效的人工智能代理將超越本地所有互聯(lián)網(wǎng)連接設(shè)備,提供智能響應(yīng),從而在所有交互中實(shí)現(xiàn)大規(guī)模的超個(gè)性化,進(jìn)而稱為AIoE。
AIoT以及隨后的AloE是一個(gè)設(shè)備相互通信,并與人類動(dòng)態(tài)交互的世界。
總結(jié)
本文是對(duì)人工智能現(xiàn)狀的戰(zhàn)略分析。進(jìn)入人工智能和LLM領(lǐng)域,總是充滿未知及挑戰(zhàn),畢竟在這個(gè)廣義的人工智能時(shí)代,探索通往通用人工智能(AGI)的路,還很長(zhǎng)。
- 報(bào)告:AI產(chǎn)業(yè)預(yù)計(jì)2029年將達(dá)到2180億美元,生成式AI年增長(zhǎng)率高達(dá)38%
- 報(bào)告:AI產(chǎn)業(yè)預(yù)計(jì)2029年將達(dá)到2180億美元,生成式AI年增長(zhǎng)率高達(dá)38%
- DeepSeek R1模型驚艷全球,Meta楊立昆:這是開(kāi)源模型的勝利
- Meta將繼續(xù)大力投資AI 扎克伯格已宣布今年資本支出將超過(guò)600億美元
- AlphaFold 3發(fā)布,讓藥物研發(fā)更高效
- 蘋(píng)果抽調(diào)“救火隊(duì)員”押注AI 戰(zhàn)略地位超Vision Pro
- 現(xiàn)代汽車集團(tuán)收購(gòu)波士頓動(dòng)力3年后 LG電子也將控股一家美國(guó)機(jī)器人公司
- 消息稱智譜管理層變動(dòng) 2名高管離職
- 智譜首席戰(zhàn)略官離職,前Midjourney亞洲副總裁加入:人才流動(dòng)新動(dòng)態(tài)
- "AI終極挑戰(zhàn)揭曉:基準(zhǔn)測(cè)試慘淡成績(jī)揭示AI系統(tǒng)短板,準(zhǔn)確率未超10%"的犀利解讀
免責(zé)聲明:本網(wǎng)站內(nèi)容主要來(lái)自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請(qǐng)進(jìn)一步核實(shí),并對(duì)任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對(duì)有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁(yè)或鏈接內(nèi)容可能涉嫌侵犯其知識(shí)產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書(shū)面權(quán)利通知或不實(shí)情況說(shuō)明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會(huì)依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開(kāi)相關(guān)鏈接。