性能提升超越摩爾定律!浪潮AI服務器再創(chuàng)MLPerf V2.0訓練評測最佳成績

6月30日,全球權威AI基準評測MLPerf™最新V2.0訓練評測成績榜單公布。浪潮AI服務器表現(xiàn)優(yōu)異,繼兩月前在MLPerf™V2.0數(shù)據(jù)中心推理評測中斬獲全部冠軍后,本次又在MLPerf™V2.0單機訓練性能繼續(xù)保持領先。

本次MLPerf™評測吸引了包括谷歌、NVIDIA、浪潮信息、百度、Intel-Habana、Graphcore等全球21家廠商和研究機構參與,共有264項評測成績提交,是上一輪基準評測的1.5倍。評測任務涵蓋了當下主流AI場景,包括自然語言處理(BERT)、智能推薦(DLRM)、圖像分類(ResNet)、醫(yī)學影像分割(3D U-Net)、輕量級目標物體檢測(RetinaNet)、重量級目標物體檢測(Mask R-CNN)、語音識別(RNN-T)以及強化學習(Minigo)8類AI任務。

在單機訓練評測的固定任務中,浪潮信息以高端AI服務器斬獲自然語言理解(BERT)、智能推薦(DLRM)、語音識別(RNN-T)三項性能成績第一,位列單機冠軍榜首。在本次配置8顆NVIDIA A100 Tensor Core GPU的主流高端AI服務器中,浪潮AI服務器斬獲5項任務最佳成績(BERT、DLRM、RNN-T、ResNet、MaskR-CNN)。

超越摩爾定律,持續(xù)領跑AI計算性能提升

MLPerfTM評測組織機構MLCommons 執(zhí)行主任David Kanter 在此次成績發(fā)布會上表示,自首次公布評測基準以來,MLPerf性能提升速度遠超過摩爾定律??紤]到業(yè)界對計算和AI的需求正以驚人的速度增長,這讓人非常振奮。

自參加MLPerf™AI性能評測以來,浪潮AI服務器通過軟硬件全面優(yōu)化,持續(xù)實現(xiàn)AI性能突破。相較于2018年12月MLPerf™ 初始版本V0.5的典型配置8卡機型的性能數(shù)據(jù),浪潮AI服務器的性能顯示出大幅提升,提升比例最高達789%,2.35倍于摩爾定律增速。

浪潮AI服務器在MLPerf™基準評測中的卓越表現(xiàn),得益于浪潮信息在AI計算系統(tǒng)上優(yōu)異的設計創(chuàng)新能力和全棧優(yōu)化能力。浪潮AI服務器針對AI訓練中常見的密集I/O傳輸瓶頸,通過PCIe retimer-free 設計實現(xiàn)了CPU-GPU間通道免中繼高速互聯(lián),大幅降低通信延遲;并針對高負載多GPU協(xié)同任務調度,以及NUMA節(jié)點與GPU之間的數(shù)據(jù)傳輸性能進行了深度優(yōu)化,確保訓練任務中的數(shù)據(jù)I/O通路處于最高性能狀態(tài);在散熱層面,率先實現(xiàn)4U空間內部署8顆500W的高端NVIDIA A100 TensorCoreGPU,并支持風冷、液冷兩種散熱方式。同時,在模型訓練全流程中,浪潮AI服務器持續(xù)通過優(yōu)化預訓練數(shù)據(jù)處理、GPU之間高速通信、GPU核心加速等關鍵模塊,最大化提升了AI模型的訓練性能。

大幅提升Transformer訓練性能

當前,基于Transformer神經網絡的預訓練大模型正引領新一代AI算法發(fā)展,并逐步從自然語言處理走向計算機視覺、多模態(tài)等領域。MLPerfTM評測任務中的BERT模型即是基于Transformer架構的模型。Transformer簡潔、可堆疊的架構使得開發(fā)極大參數(shù)量、基于極大數(shù)據(jù)集的預訓練大模型成為可能,這帶來了模型算法能力的大幅提升,但同時也對AI計算系統(tǒng)的處理性能、通信互聯(lián)、I/O性能、并行擴展、拓撲路徑及散熱能力提出了更高的要求。

在本次BERT評測任務中,浪潮AI服務器通過優(yōu)化數(shù)據(jù)預處理、GPU之間密集參數(shù)通信、超參數(shù)自動尋優(yōu)等,進一步提升了BERT訓練性能,在15.869分鐘內即在Wikipedia數(shù)據(jù)集的2850176條數(shù)據(jù)上完成了3.3億參數(shù)的BERT模型訓練,相較于V0.7版本的最佳成績49.01分鐘的性能提升達到309%。至此,浪潮AI服務器已經連續(xù)三次獲得MLPerfTM訓練BERT任務性能冠軍。

浪潮信息在MLPerf™ V2.0訓練評測中取得佳績的2款AI服務器分別是NF5488A5及NF5688M6。NF5488A5是全球首批上市的NVIDIA A100 Tensor Core GPU服務器,在4U空間支持8顆由NVIDIA NVLink 互聯(lián)的NVIDIA A100 Tensor Core GPU和2顆AMD Milan CPU,同時支持液冷和風冷散熱技術,累計斬獲40項 MLPerf™ 冠軍。NF5688M6是面向大規(guī)模數(shù)據(jù)中心優(yōu)化設計的具備極致擴展能力的AI服務器,支持8顆第三代 NVLink 互聯(lián)的NVIDIA A100 Tensor Core GPU 和兩顆Intel Ice Lake CPU,支持多達13張PCIe Gen4 的IO擴展能力,累計斬獲25項 MLPerf™ 冠軍。

附:MLPerf™簡介

MLPerf™ 是影響力最廣的國際AI性能基準評測,由圖靈獎得主大衛(wèi)•帕特森(David Patterson)聯(lián)合頂尖學術機構發(fā)起成立。2020年,非盈利性機器學習開放組織MLCommons基于MLPerf™ 基準測試成立,其成員包括Google、Facebook、NVIDIA、英特爾、浪潮信息、哈佛大學、斯坦福大學、加州大學伯克利分校等50余家全球AI領軍企業(yè)及頂尖學術機構,致力于推進機器學習和人工智能標準及衡量指標。目前,MLCommons每年組織2次MLPerf™ AI訓練性能測試和2次MLPerf™AI推理性能測試,以便快速跟進迅速變化的計算需求和計算性能提升,為用戶衡量設備性能提供權威有效的數(shù)據(jù)指導。

(免責聲明:本網站內容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網站出現(xiàn)的信息,均僅供參考。本網站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。
任何單位或個人認為本網站中的網頁或鏈接內容可能涉嫌侵犯其知識產權或存在不實內容時,應及時向本網站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內容或斷開相關鏈接。 )