2018年以來,以BERT、GPT等為代表的大規(guī)模預(yù)訓(xùn)練模型,帶來了人工智能領(lǐng)域新的突破,由于其強(qiáng)大的通用性和卓越的遷移能力,掀起了預(yù)訓(xùn)練模型往大規(guī)模參數(shù)化發(fā)展的浪潮。其中微軟、谷歌、Facebook、NVIDIA等諸多公司在預(yù)訓(xùn)練算法上持續(xù)大量投入。國內(nèi)如百度、華為、阿里等公司也相繼投入到大規(guī)模預(yù)訓(xùn)練模型算法的研究中?,F(xiàn)階段,在中文自然語言處理方向上,預(yù)訓(xùn)練也如雨后春筍一樣涌現(xiàn)?,F(xiàn)有算法主要依賴純文本學(xué)習(xí),缺少知識指導(dǎo)學(xué)習(xí),模型能力存在局限。
2021年10月13日,騰訊云小微與騰訊AI Lab聯(lián)合團(tuán)隊提出了基于知識的中文預(yù)訓(xùn)練模型——“神農(nóng)”,該模型僅包含十億級參數(shù)量,并一舉登頂CLUE總排行榜、1.1分類任務(wù)、閱讀理解任務(wù)和命名實(shí)體任務(wù)四個榜單,刷新業(yè)界記錄。
10月13日,“神農(nóng)”刷新CLUE分類榜單紀(jì)錄;HUMAN 為人類標(biāo)注成績,非模型效果,不參與排名。
同時,“神農(nóng)”登頂CLUE閱讀理解、NER榜單,刷新業(yè)界記錄。
作為中文語言理解領(lǐng)域最具權(quán)威性的測評基準(zhǔn)之一,CLUE涵蓋文本相似度、分類、自然語言推理、閱讀理解、NER等眾多語義分析和理解類子任務(wù)。近段時間,各大公司紛紛用CLUE作為預(yù)訓(xùn)練算法能力的驗證和衡量標(biāo)準(zhǔn)。此次登頂CLUE榜單,不僅代表了云小微與騰訊AI Lab聯(lián)合團(tuán)隊在中文預(yù)訓(xùn)練研究領(lǐng)域達(dá)到業(yè)內(nèi)領(lǐng)先水平,并且推動中文預(yù)訓(xùn)練模型在理解和推理方面提升了一個新高度。
聯(lián)合團(tuán)隊致力于將知識融入預(yù)訓(xùn)練模型,進(jìn)而充分發(fā)揮已有參數(shù)下的模型潛力。模型結(jié)構(gòu)方面,“神農(nóng)”基于 Transformer 架構(gòu),僅包含十億級的參數(shù)量。從數(shù)據(jù)量來看,“神農(nóng)”以數(shù)百 GB 級的平文本做基石,涵蓋百科、論壇博客、新聞、財經(jīng)等眾多領(lǐng)域的高質(zhì)量文本。相對于業(yè)界其他中文預(yù)訓(xùn)練模型,“神農(nóng)”在以下三個方面獲得了突破性進(jìn)展:
第一,“神農(nóng)”從兩個角度對知識進(jìn)行建模,分別是“通用型推理知識”和“任務(wù)型知識”。通用型知識指的是現(xiàn)有知識,比如詞法、句法、圖譜等,這類知識的特點(diǎn)是通用性強(qiáng),覆蓋度廣。雖然能整體提高模型的能力,但是在特定場景中往往不容易發(fā)揮作用。而任務(wù)型知識旨在挖掘場景下特有的知識,并通過將其泛化來提升預(yù)訓(xùn)練模型的能力。二者可謂相輔相成。
第二,聯(lián)合團(tuán)隊將漢語中典型的篇章推理知識作為通用知識融入預(yù)訓(xùn)練過程中,如因果、對比、遞進(jìn)、轉(zhuǎn)折關(guān)系等。中文是表達(dá)極其豐富的語言,存在大量指示性的虛詞。這些虛詞在中文的語義理解中起著至關(guān)重要的作用。比如:
這段話的語義可謂一波三折,而引起語義起伏變化的正是這些虛詞。通過引入這類知識可以強(qiáng)化模型對中文的理解能力。
第三,“神農(nóng)”提出基于對比學(xué)習(xí)的任務(wù)型知識挖掘和融入算法。通過定義知識模板,該算法可以為指定任務(wù)“定制知識”,并將其融入到訓(xùn)練過程中。另外,“神農(nóng)”將挖掘出來的知識在大規(guī)模單語文本中進(jìn)行泛化,大大提高了知識的表達(dá)能力。
“神農(nóng)”正是通過充分利用這兩類知識,進(jìn)一步強(qiáng)化了中文預(yù)訓(xùn)練模型的能力,在包含文本分類、閱讀理解等多類任務(wù)上表現(xiàn)出色。
一直以來,騰訊云小微團(tuán)隊和騰訊AI Lab團(tuán)隊持續(xù)深耕知識挖掘、語義理解技術(shù)以及預(yù)訓(xùn)練技術(shù)。云小微方面,依托自研的知識挖掘算法和深度學(xué)習(xí)技術(shù),基于平臺對行業(yè)知識的長期積累,能快速搭建多個領(lǐng)域的知識結(jié)構(gòu),有效地從非結(jié)構(gòu)化文件中抽取關(guān)鍵信息,為行業(yè)提供全流程知識構(gòu)建服務(wù)。在此加持下,團(tuán)隊通過將行業(yè)知識與預(yù)訓(xùn)練技術(shù)相結(jié)合,可以更好地服務(wù)應(yīng)用,為各行各業(yè)輸出完整的AI解決方案,不斷滲透智慧生活各個場景。目前已在智能網(wǎng)聯(lián)汽車、智慧文旅、智慧教育等多行業(yè)領(lǐng)域落地應(yīng)用,服務(wù)廣泛的用戶群體。騰訊AI Lab始終強(qiáng)調(diào)研究與應(yīng)用并重發(fā)展,其研究覆蓋機(jī)器學(xué)習(xí)、計算機(jī)視覺、語音識別及自然語言處理等四大核心方向,其中自然語言處理方向強(qiáng)調(diào)賦予計算機(jī)系統(tǒng)以自然語言文本理解與外界交互的能力,并不斷探索最前沿的文本理解和生成技術(shù)。實(shí)驗室立足未來,開放合作,致力于不斷提升AI的認(rèn)知、決策與創(chuàng)造力,向“MakeAIEverywhere”的愿景邁步。
本次兩個團(tuán)隊強(qiáng)強(qiáng)聯(lián)合,深入探索知識與預(yù)訓(xùn)練的融合技術(shù),提出了全新的基于知識的預(yù)訓(xùn)練方法,在這一領(lǐng)域又邁出了堅實(shí)的一步。
(免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請進(jìn)一步核實(shí),并對任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負(fù)任何法律責(zé)任。
任何單位或個人認(rèn)為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實(shí)內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實(shí)情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )