210億顆晶體管加持 金山云全國首家商用Tesla V100

2018年被稱為AI全面爆發(fā)的元年,大量AI行業(yè)應(yīng)用逐漸落地,帶來了生產(chǎn)效率及生活品質(zhì)的大幅提升,催生出了更加多元化的商業(yè)價值。而伴隨著AI發(fā)展進入深水區(qū),待處理數(shù)據(jù)量空前龐大,算法復(fù)雜度呈現(xiàn)指數(shù)級增長,能否提供更快更強的計算力,成為AI保持高速發(fā)展的關(guān)鍵因素。

面向用戶日益增長的對于構(gòu)建更智慧AI應(yīng)用的計算需求,提供性能更加強悍、彈性易擴展和高性價比的云上計算能力,成為業(yè)界的共同目標(biāo)。金山云基于對用戶需求的深刻把控,于近期正式推出了基于NVIDIATesla V100的GPU云服務(wù)器,支持最高15*8 TFLOPS的單精浮點計算能力和125*8TFLOPS的混合精度(FP16/FP32)矩陣計算能力,使深度學(xué)習(xí)訓(xùn)練與推理過程性能提升300%,而成本保持不變。

210億顆晶體管加持 金山云全國首家商用Tesla V100

210億顆晶體管構(gòu)建最強計算力

作為國內(nèi)首家正式公開售賣的基于Tesla V100的GPU云服務(wù)器,使用了創(chuàng)新的Tensor Core引擎,將混合精度浮點的計算能力再提升10倍以上,在整體深度學(xué)習(xí)的訓(xùn)練與推理應(yīng)用中相比于上一代PASCAL平臺有了3倍性能提升,可輕松應(yīng)對深度學(xué)習(xí),科學(xué)運算、圖形圖像渲染等諸多應(yīng)用場景,有效縮短在線預(yù)測和離線訓(xùn)練時長。

目前基于V100的GPU加速計算服務(wù)已全面商用,為包括小米等在內(nèi)的諸多客戶提供著高性能的計算支撐。小米最新發(fā)布的年度旗艦手機小米8,其AI加持的全面屏系統(tǒng)MIUI 10、AI相機、AI語音助理“小愛同學(xué)”等,背后均有金山云頂級GPU資源提供的計算服務(wù),極大提升了產(chǎn)品的研發(fā)效率和使用體驗。

在基礎(chǔ)結(jié)構(gòu)層面,Tesla V100一共包含了210億顆晶體管,搭載了84個SM(流多處理器)單元,其中有效單元有80個,每個SM單元中有64個單精度的處理單元CUDA Core以及8個混合精度的矩陣運算單元Tensor Core,總計共有5120個CUDA Core和640個Tensor Core,搭載16GB的HBM 2的顯存,帶寬可以高達900GB/s,并且支持300GB/s雙向帶寬的NVLink2.0的主線協(xié)議。

210億顆晶體管加持 金山云全國首家商用Tesla V100

全新的Volta架構(gòu)示意圖

在線程調(diào)配層面,V100是首款支持獨立線程調(diào)度的GPU,允許GPU執(zhí)行任何線程,從而程序中的并行線程之間能實現(xiàn)更精細的同步與協(xié)作,使用戶能在更復(fù)雜多樣的應(yīng)用程序上高效地工作。獨創(chuàng)的Tensor Core打破了單處理器的最快處理速度記錄,能夠提供比功能單一的ASIC更高的性能,在不同工作負載下仍然具備可編程性。

Tensor Core打造更專業(yè)的深度學(xué)習(xí)計算單元

Tensor Core是Volta架構(gòu)最重磅的特性,是專門針對深度學(xué)習(xí)應(yīng)用而設(shè)計的專用ASIC單元,是一種矩陣乘累加的計算單元。(矩陣乘累加計算在Deep Learning網(wǎng)絡(luò)層算法中,比如卷積層、全連接層等是最重要、最耗時的一部分)。Tensor 核心每個時鐘周期可執(zhí)行64次浮點混合乘加(FMA)運算,從而為訓(xùn)練和推理應(yīng)用程序提供高達125 TFLOPS的計算性能。

更強悍的計算能力意味著開發(fā)人員可以使用混合精度(FP16 計算使用 FP32 累加)執(zhí)行深度學(xué)習(xí)訓(xùn)練,從而實現(xiàn)比上一代產(chǎn)品快3倍的性能,并可收斂至網(wǎng)絡(luò)預(yù)期準(zhǔn)確度,目前Tensor Core可以支持的深度學(xué)習(xí)框架有Caffe、Caffe2、MXNet、PyTorch、Theano、TensorFƒlow等。

210億顆晶體管加持 金山云全國首家商用Tesla V100

NVLink互聯(lián)方式示意圖

此外,Tesla V100的NVLink版本支持NVLink2.0高速互聯(lián)總線協(xié)議,Tesla P100支持的NVLink1.0協(xié)議,每顆GPU可以連接4根總線,每根總線的單向傳輸帶寬可以達到20GB/s,四根總線可以實現(xiàn)單向80GB/s、雙向160GB/s的IO帶寬。而Tesla V100支持最新的NVLink2.0協(xié)議,每顆GPU最多可以實現(xiàn)六根總線互聯(lián),每根總線的單向傳輸帶寬可以達到25GB/s,六根總線可以實現(xiàn)單向150GB/s、雙向300GB/s的IO帶寬,相比NVLink1.0,帶寬幾乎提升了1倍。

高混合精度計算能力讓計算更高效

Tesla V100有NVLink和PCIe兩個版本,計算核心都是GV100,均有5120個CUDA Cores以及640個Tensor Cores, NVLink 版本主頻略高,雙精度浮點計算能力達到7.5TFLOPS,單精度浮點計算能力達到了15TFLOPS,而混合精度計算能力可以達到125 TFLOPS ,PCIe版本有7TFLOPS雙精度浮點計算能力、14TFLOPS單精度浮點計算能力和112個TFLOPS混合精度計算能力。

在訓(xùn)練 ResNet-50 時,單個V100 Tensor Core GPU的處理速度能達到1075 張圖像/秒,與上一代Pascal GPU相比,它的性能提高了4倍。據(jù)測算,假如有100萬張圖片需要學(xué)習(xí),理論上僅需約15分鐘即可訓(xùn)練完成。

210億顆晶體管加持 金山云全國首家商用Tesla V100

NVLink和PCIe版本Tesla V100對比

金山云作為國內(nèi)首家正式商用Tesla V100的云服務(wù)廠商,目前在售基于V100的服務(wù)器有GPU云服務(wù)器(P4V系列)和GPU物理服務(wù)器(P4E系列)。卓越的深度學(xué)習(xí)計算性能,讓用戶能夠更加快速、高效構(gòu)建AI業(yè)務(wù),彈性易擴展和高性價比的特性,能夠為用戶節(jié)省大量計算成本,有效降低AI開發(fā)的時間風(fēng)險,提高企業(yè)AI競爭力。

極客網(wǎng)企業(yè)會員

免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責(zé)。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負任何法律責(zé)任。任何單位或個人認(rèn)為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。

2018-06-01
210億顆晶體管加持 金山云全國首家商用Tesla V100
2018年被稱為AI全面爆發(fā)的元年,大量AI行業(yè)應(yīng)用逐漸落地,帶來了生產(chǎn)效率及生活品質(zhì)的大幅提升,催生出了更加多元化的商業(yè)價值。

長按掃碼 閱讀全文