近日,騰訊云小微及騰訊云TI-ONE聯(lián)合團隊在大型深層閱讀理解任務數(shù)據(jù)集 RACE 數(shù)據(jù)集(ReAding Comprehension dataset collected from English Examinations)上登頂?shù)谝?。?jù)了解,在此次比賽中,騰訊云小微及騰訊云TI-ONE聯(lián)合團隊在基于ALBERT預訓練模型上,取得了單模型90.7%和集成模型91.4%正確率的成績。
采用全新訓練策略,騰訊云小微及騰訊云TI-ONE聯(lián)合團隊展現(xiàn)AI實力
RACE 是一個來源于中學考試題目的大規(guī)模閱讀理解數(shù)據(jù)集,包含了大約 28000 個文章以及近 100000 個問題。它的形式類似于英語考試中的閱讀理解(選擇題),給定一篇文章,通過閱讀并理解文章(Passage),針對提出的問題(Question)從四個選項中選擇正確的答案(Answers)。
據(jù)了解,深度閱讀理解的難度在于,正確答案的文字并沒有直接使用文章中的話術來回答,不能通過檢索文章獲取答案,而是要從語義層面深度理解文章來作答。想要提高閱讀正確率,就需要機器模型通過分析文章中的線索并基于上下文推理,選出正確答案,這對參賽團隊的算法技術提出了更高的要求。
因此,騰訊云小微團隊通過全新的訓練策略來實現(xiàn)突破。他們跳出從現(xiàn)有的四個選項中選出一個正確答案的固定模式,采用獨立地考慮每一個答案是否合理的方式,同時利用多種其他形式的閱讀理解數(shù)據(jù)進行遷移學習,大大提高了閱讀理解的準確率,并在基于ALBERT預訓練模型上,取得了單模型90.7%和集成模型91.4%正確率的成績,贏得了本次比賽的冠軍。
除此之外,在本次比賽上,騰訊云TI-ONE聯(lián)合騰訊優(yōu)圖和機智團隊在單機性能優(yōu)化、分布式多機擴展和AutoML收斂優(yōu)化方面也作出了諸多開創(chuàng)性貢獻。
在單機性能方面,基于ALBERT的原生代碼,TI-ONE引入了Nvidia的APEX的混合精度訓練,并采用動態(tài)loss scaling進行正確的權重更新,保證最終模型的精度沒有因為低精度訓練而有所損失,最終,單卡性能提升為原來的3.6倍。
在多機擴展方面,由于PyTorch原生的DDP通信框架在公有云VPC網(wǎng)絡擴展性不好,團隊采用自研的TI-Horovod通信加速框架,利用2D-AllReduce和多流通信等技術,把多機訓練ALBERT性能提升為原來的5.5倍。
另外,AutoML收斂方面,騰訊自研的TI-AutoML框架解決了模型集成困難和大規(guī)模長任務調參效果差的問題,便捷地與ALBERT模型集成,同時針對ALBERT模型pretrain和fine-tune兩階段訓練的特點,采用了不同的自動調參策略,最后在騰訊云海量算力的加持下,調參效率相對人工調參提升了8倍,徹底把算法工程師從繁瑣的手工調參中解放出來,讓精力更多的聚焦在更有意義的模型算法創(chuàng)新工作上。
技術突破讓AI應用日漸廣泛,在多行業(yè)領域落地應用
深度閱讀理解是目前AI領域中最受關注、進步最快的技術方向。如何提高機器深度閱讀理解的正確率,是業(yè)內一直在關注和探索的問題。此次騰訊聯(lián)合團隊創(chuàng)新的訓練策略,和在單機性能優(yōu)化、分布式多機擴展和AutoML收斂優(yōu)化等方面的技術提升,將給AI技術領域帶來新的突破。
不止是在深度閱讀理解領域有所突破,此次參賽的騰訊云小微團隊專注于AI技術領域,在機器翻譯、人機對話、閱讀理解、自動摘要等領域內都有所研究,其相關技術多次獲得業(yè)內的認可。在AIIA2020人工智能開發(fā)者大會上,騰訊云小微獲得多項技術評測認證;在DSTC第八屆對話系統(tǒng)技術挑戰(zhàn)賽中,則獲得四項第一;在CAIL2019司法人工智能挑戰(zhàn)賽閱讀理解第一名的好成績。
當前,人工智能作為經濟發(fā)展的新動力以及新一輪產業(yè)變革的核心驅動力,機器翻譯、人機對話、閱讀理解等AI技術正在教育、文旅、出行等多個領域內落地應用。在這種背景下,騰訊云小微團隊憑借全棧AI語音能力,以及騰訊內外部豐富的內容和服務生態(tài),為各行各業(yè)輸出完整的AI解決方案,不斷滲透智慧生活各個場景。據(jù)了解,目前已在智能網(wǎng)聯(lián)汽車、智慧文旅、智慧教育、智能家居等多行業(yè)領域落地應用,服務廣泛的用戶群體。
(免責聲明:本網(wǎng)站內容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。
任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內容可能涉嫌侵犯其知識產權或存在不實內容時,應及時向本網(wǎng)站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內容或斷開相關鏈接。 )