超越華為盤古千億模型,搜狗搜索再創(chuàng)中文語言理解評測CLUE世界第一

近日,搜狗搜索技術團隊在CLUE(中文語言理解測評基準)的任務比賽中,基于自研的中文預訓練模型擊敗了包括華為盤古在內的一眾強勁對手,在CLUE總榜、分類總榜、閱讀理解榜再次獲得第一名,刷新業(yè)界記錄。

超越華為盤古千億模型,搜狗搜索再創(chuàng)中文語言理解評測CLUE世界第一

“BERTSG”為搜狗搜索自研模型,“HUMAN”為人類成績(不計入選手)

  不懼業(yè)內強勁挑戰(zhàn)搜狗搜索用技術與算法彰顯實力

作為中文語言理解領域最具權威性的測評基準之一,CLUE基于原始的中文文本語料共開設了8個方向的比賽,由文本相似度、分類、上下文推理、閱讀理解等共11個子任務組成。此前,搜狗搜索曾長期霸榜CLUE多個任務比賽冠軍寶座,但在今年4月遭遇到來自華為、阿里達摩院等競爭對手的強勁挑戰(zhàn),華為更是利用其兩千億參數模型盤古一度取得領先。

就在近日,搜狗搜索技術團隊基于自研的中文預訓練模型,一舉超越華為盤古,再度在CLUE總榜、分類總榜、閱讀理解榜獲得冠軍,展示了其在自然語義理解領域強大的技術創(chuàng)新實力和領先的AI算法能力。

據了解,搜狗搜索技術團隊近一年來在預訓練模型研發(fā)上加強投入,已完成從億級到百億級中文預訓練模的研發(fā),目前正開展千億級中文預訓練模型及多模態(tài)預訓練模型的研發(fā)工作。搜狗搜索技術團隊自研的預訓練模型之所以能夠比參數量更大的華為盤古在CLUE榜單取得更好的效果,主要是在訓練語料、模型結構、訓練方法三個方面進行了創(chuàng)新突破。

訓練語料方面,憑借自身作為第二大搜索引擎的基礎優(yōu)勢,搜狗搜索技術團隊首先從萬億網頁中篩選出10T優(yōu)質語料,依托搜狗搜索的內容理解技術、大規(guī)模聚類等系統,進而從10T優(yōu)質語料中精選出2T最終語料,這樣在保證語料內容質量的同時,還可以確保內容的多樣性,從訓練語料上提升了模型的訓練效率和泛化能力。

模型結構方面,原始的BERT模型使用了Post-LN的結構,該結構的弊端是在訓練超大模型時,若沒有設置好warmup,會導致收斂效果變差。而搜狗的預訓練模型在結構上采用了Pre-LN的方式,大大提升了訓練效率。

而在訓練方法方面,搜狗搜索技術團隊做了兩方面的創(chuàng)新優(yōu)化。第一,采用了cross thought預訓練方法,同時引入對比學習訓練方法,解決原始BERT模型學習出來的cls token向量存在各向異性的問題,大大增強預訓練模型的表征能力,使得下游任務效果得到明顯提升。第二,加入了根據文章標題生成和段落順序預測兩個任務,進一步增強預訓練模型的文章理解能力。具體而言,在標題生成任務上,輸入一篇文章的內容和標題,并且對文章和標題都做詞語級別的mask操作,文章mask策略與Roberta-wwm采用的策略一樣,標題則mask超過80%的詞。而段落順序預測任務的目標是預測段落之間的上下文關系,在加入這兩種預測任務后,預訓練模型的效果得到明顯提升。

搜狗搜索NLP技術長期領先,成功落地產品、加速賦能行業(yè)

與此同時,此次搜狗搜索自研預訓練模型在CLUE總榜、分類總榜、閱讀理解榜再度獲得冠軍,也意味著搜狗搜索在自然語言預訓練、語義理解、長文本和短文本分類、閱讀理解、問答等領域皆持續(xù)處于業(yè)界領先水平,展現了其在NLP的超群實力。在此之前,搜狗搜索還曾在國際閱讀理競賽CoQA等競賽中取得了冠軍的成績。

事實上,搜狗搜索之所以在NLP領域長期處于領先地位,與搜狗公司長期專注在自然語言處理領域進行深耕細作密不可分。作為一家將AI作為企業(yè)基因的公司,搜狗基于搜狗搜索、搜狗輸入法等核心產品,一直堅持其以語言為核心的AI戰(zhàn)略,并成功進行了一系列AI技術創(chuàng)新和產品落地實踐。

據了解,搜狗自研的預訓練模型已在搜狗搜索產品中落地,大幅提升了用戶的搜索效率和體驗。此外,相關技術在語言翻譯、聊天機器人、知識圖譜等領域也具有廣泛的應用空間。

(免責聲明:本網站內容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網站出現的信息,均僅供參考。本網站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。
任何單位或個人認為本網站中的網頁或鏈接內容可能涉嫌侵犯其知識產權或存在不實內容時,應及時向本網站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網站在收到上述法律文件后,將會依法盡快聯系相關文章源頭核實,溝通刪除相關內容或斷開相關鏈接。 )