5月24日消息(張曉寶)5月23日,由CIOE中國光博會與C114通信網(wǎng)聯(lián)合舉辦的2024中國高質(zhì)量發(fā)展論壇第四場——“AI時代:數(shù)據(jù)中心光互聯(lián)技術(shù)新趨勢”研討會成功舉行,京東光互聯(lián)架構(gòu)師陳琤在會上分享了關(guān)于《高性能計算網(wǎng)絡(luò)中的光互連》的主題發(fā)言。
京東在高性能計算網(wǎng)絡(luò)領(lǐng)域起步較早,持續(xù)在多個代際的智算拓?fù)渖献隽舜罅康耐度?,?yīng)用場景涉及到了推薦算法、智能客服,AI售賣租賃、數(shù)字人直播等等。
智算網(wǎng)絡(luò)拓?fù)湟话惴譃閮深惇毩⒌木W(wǎng)絡(luò),其一是接入/存儲網(wǎng)絡(luò),主要實現(xiàn)CPU之間的互聯(lián);其二是計算網(wǎng)絡(luò),主要進行GPU節(jié)點數(shù)據(jù)的并行協(xié)同。
整體來看,智算網(wǎng)絡(luò)對于光互連的要求主要集中于三方面,即大帶寬、低成本和低延時。
光模塊與大帶寬的關(guān)系
數(shù)據(jù)鏈路帶寬方面,首先要實現(xiàn)的是GPU與GPU之間并行多路的通信,需要注意數(shù)據(jù)傳輸過程中鏈路帶寬的情況,在計算節(jié)點內(nèi)部互聯(lián)中一般可采用C2C Full mesh的方式,連接速率可達(dá)數(shù)百GB/s。
如要實現(xiàn)不同GPU出口的通信,則要通過PCle與網(wǎng)卡連接,在進行串并轉(zhuǎn)化后進而通過光模塊、計算網(wǎng)絡(luò)實現(xiàn)跨端口連接。因此,當(dāng)前許多廠家均在提倡光學(xué)輸入/輸出(OIO)的形式,以突破高速互聯(lián)的瓶頸,這也是當(dāng)下的一個發(fā)展方向。
在網(wǎng)絡(luò)設(shè)備/光模塊帶寬演進方面,當(dāng)前智算網(wǎng)絡(luò)主要部署的是50G Serdes的交換機和光模塊,光模塊類型選擇則以200G/400G等為主。當(dāng)單節(jié)點容量達(dá)到51.2T時,根據(jù)對網(wǎng)絡(luò)可拓展性的要求會去選擇不同的拓?fù)漕愋?,北美的一些廠家會選擇64x800G OSFP,國內(nèi)廠家則采用128x400G QSFP 112的封裝,但二者產(chǎn)業(yè)鏈?zhǔn)峭ㄓ玫摹?/p>
若未來單芯片交換容量達(dá)到102.4T,可插拔光模塊依然可以支持高密度大容量的光互連應(yīng)用,可以選擇64x1.6T OSFP和QSFP224-DD。。CPO也是熱門的解決方案之一,它要繼續(xù)解決可靠性的問題,還要解決建設(shè)部署中的可維護性問題。
如何降低光互連成本?
在降低光互連低成本問題中,硅基光子技術(shù)是潛在的降成本方案之一。硅光并非是全新的技術(shù),但就數(shù)據(jù)中心應(yīng)用而言是比較新的產(chǎn)品,當(dāng)前112G per lane模塊的供應(yīng)鏈上游集中于少量光器件廠家,因此硅光光模塊可以據(jù)此介入,以打破供應(yīng)緊張問題。
特別硅光模塊是可以覆蓋解決2km以內(nèi)的所有數(shù)據(jù)中心應(yīng)用場景需要的,因此京東也在進行相應(yīng)的認(rèn)證等工作,相信不久的將來也能真正的部署到當(dāng)下網(wǎng)絡(luò)中。
線性直驅(qū)光模塊LPO/LRO當(dāng)前也是比較熱門的應(yīng)用方向,在112G per lane時代,借助于ASIC驅(qū)動能力足夠強的特性,可以將光模塊作減法,即去掉DSP或CDR的部分,進而可降低光模塊的復(fù)雜程度,以達(dá)到降低成本的目的。
但其也面臨了一些挑戰(zhàn),如兼容性與互聯(lián)互通的問題,要考慮ASIC芯片對其的支持情況、不同廠家間互聯(lián)情況、新舊模塊互聯(lián)互通的情況等等問題。
還有演化可持續(xù)性的問題也要考慮進來,如112G已可支持LPO,但如發(fā)展至224G等,就要考量LPO是否支持的可行性了。
智算網(wǎng)絡(luò)低延時問題
在低延時方面,如要實現(xiàn)整體協(xié)同的運算保障,不同的計算節(jié)點間的GPU延時問題勢必會大大降低運行效率,那么哪些因素通常會導(dǎo)致延時呢?
首先是基于協(xié)議,GPU的網(wǎng)絡(luò)最初基于InfiniBand(IB)的協(xié)議形式較多,在數(shù)據(jù)傳輸中可繞過CPU的參與,實現(xiàn)了不同計算節(jié)點間GPU緩存之間的數(shù)據(jù)通信,大大減少了基于協(xié)議的通信延時。
基于傳統(tǒng)以太的協(xié)議,則要CPU介入到通信整個過程,因此其延時會比較長。
在智算網(wǎng)絡(luò)中用到的是一個較為折中的方案,即RDMA方案,可借用以太協(xié)議的封裝將RDMA的內(nèi)核封裝進去,進而實現(xiàn)共用以太網(wǎng)的設(shè)施以實現(xiàn)降低延時。
其次則是鏈路延時,因為GPU與GPU之間的通信要經(jīng)過leaf-spine架構(gòu),并要進行光信號轉(zhuǎn)換,實現(xiàn)數(shù)據(jù)互聯(lián),其過程中各環(huán)節(jié)也必然產(chǎn)生各種不同的延時。
如在決策類模型的時延中,可優(yōu)化項為光模塊中的信號恢復(fù)單元導(dǎo)致的延時。而在生成式模型的延時中,主要是數(shù)據(jù)傳輸時間導(dǎo)致的延時為主,而物理鏈路導(dǎo)致的延時實際占比極小。因此,這時候系統(tǒng)延時會對帶寬利用率更為敏感,要根據(jù)模型不同去優(yōu)化延時的不同方向。
最后陳琤總結(jié)到,相較于傳統(tǒng)數(shù)通網(wǎng)絡(luò),智算網(wǎng)絡(luò)帶寬的增長也會更迅速,低成本互聯(lián)有賴于新技術(shù)的支撐,如硅光、LPO/LRO等。另外,不同的模型對延時的要求是不一樣的,要優(yōu)化的方向會有所區(qū)別。
- 蜜度索驥:以跨模態(tài)檢索技術(shù)助力“企宣”向上生長
- 沃達(dá)豐與Digi簽署MoU 探討收購羅馬尼亞電信
- 沃達(dá)豐與Digi簽署MoU 探討收購羅馬尼亞電信
- NTT與豐田擬投資33億美元開發(fā)基于AI的自動駕駛技術(shù)
- NTT與豐田擬投資33億美元開發(fā)基于AI的自動駕駛技術(shù)
- 華為發(fā)布5G-AA十大解決方案,滿足移動AI時代多樣化業(yè)務(wù)需求
- 華為楊超斌:5G-A技術(shù)持續(xù)演進是釋放移動AI潛力的關(guān)鍵
- 沙特PIF與谷歌云合建AI中心:用于研究阿拉伯語模型和專屬APP
- 沙特PIF與谷歌云合建AI中心:用于研究阿拉伯語模型和專屬APP
- 華為前三季度業(yè)績曝光:營收5859億,凈利潤628.68億
- 畫餅成真?Meta第三季度營收增長19%至405億美元
免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負(fù)任何法律責(zé)任。任何單位或個人認(rèn)為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。