行業(yè)大模型2小時開箱即用?華為FusionCube A3000做到了

極客網(wǎng)·極客觀察(朱飛)7月24日“千模大戰(zhàn)”時代,算力與數(shù)據(jù)成為大模型“競爭”的核心戰(zhàn)場。不過對于廣大中小企業(yè)和組織來說,大模型對計算資源的需求、超百億甚至千億級的參數(shù)規(guī)模、體系架構(gòu)設計的高難度,提升了其邁入行業(yè)大模型應用的門檻。然而大模型的發(fā)展不會永遠停留在模型參數(shù)的疊加和算力的堆砌,如何將大模型與企業(yè)實際應用場景相結(jié)合才是引爆未來價值的增長點。

將通用模型和各領(lǐng)域?qū)S兄R數(shù)據(jù)結(jié)合,企業(yè)不必從零開始構(gòu)建基礎(chǔ)大模型,而是在已有大模型基礎(chǔ)之上,融入自身領(lǐng)域行業(yè)知識,訓練生成行業(yè)專用大模型,通過實踐推理反哺提升專用大模型能力,向垂直化、行業(yè)化發(fā)展是大模型技術(shù)落地應用的優(yōu)選方向。然而對于企業(yè)來講,基于云端大模型訓練\推理存在數(shù)據(jù)安全風險;基于本地化訓練\推理,面臨安裝部署繁瑣、復雜、硬件資源使用效率低、成本高昂的問題。那么,到底該如何降低企業(yè)大模型的部署和使用門檻呢?

7月14日,在大模型時代AI存儲新品發(fā)布會上,華為面向行業(yè)大模型訓練/推理場景,重磅發(fā)布FusionCube A3000訓/推超融合一體機,2小時即可完成開局,真正做到開箱即用。整柜采用存算分離架構(gòu),存、算可以靈活獨立擴展,幫助企業(yè)最大化降低安裝、部署門檻。內(nèi)置OceanStor A300高性能存儲節(jié)點,實現(xiàn)AI大模型訓練、推理加速,速度快人一步。

image001.jpg

一站式方案,行業(yè)大模型交付新模式

FusionCube A3000訓/推超融合一體機針對百億級模型應用,集成存儲節(jié)點、訓/推節(jié)點、交換設備、AI平臺軟件,以及管理運維軟件,免去大量適配調(diào)優(yōu)、系統(tǒng)搭建的成本,為大模型伙伴提供“拎包入住”式的部署體驗,2小時內(nèi)即可完成部署。預制業(yè)界主流AI模型,即開即用,即用即開發(fā)。

FusionCube A3000訓/推超融合一體機采用存算分離架構(gòu)實現(xiàn)訓/推節(jié)點和存儲節(jié)點解耦,支持兩種交付模式:包括華為昇騰一站式方案;以及開放計算、網(wǎng)絡、AI平臺軟件的第三方伙伴一站式方案。前者全棧采用華為自研OceanStor A300高性能存儲節(jié)點、計算、網(wǎng)絡產(chǎn)品及AI平臺軟件,能夠最大化發(fā)揮AI軟硬件協(xié)同的澎湃性能;后者同樣基于華為OceanStor A300高性能存儲節(jié)點,但廣泛支持第三方GPU算力、交換機設備和AI平臺軟件,用戶可根據(jù)自身行業(yè)特性和場景應用按需選擇。

高集成更有高性能

簡單對比不難發(fā)現(xiàn),這兩種交付模式有一個共同點,即均基于華為自研存儲節(jié)點OceanStor A300構(gòu)建?!按竽P蜁r代,數(shù)據(jù)決定AI智能的高度。作為數(shù)據(jù)的載體,數(shù)據(jù)存儲成為AI大模型的關(guān)鍵基礎(chǔ)設施?!睋Q言之,AI大模型時代,需要新的AI存儲產(chǎn)品提供數(shù)據(jù)“最優(yōu)解”。內(nèi)置于FusionCube A3000訓/推超融合一體機中的OceanStor A300高性能存儲節(jié)點,正是華為數(shù)據(jù)存儲為大模型訓練推理創(chuàng)新構(gòu)筑的數(shù)據(jù)之“基”。

OceanStor A300采用NFS over RDMA高速低時延協(xié)議,顯著降低I/O延遲;通過國內(nèi)首創(chuàng)NFS+協(xié)議,實現(xiàn)多鏈路聚合,大幅提升主機訪問性能;通過Flashlink?盤控配合智能算法,達到永快一步平穩(wěn)性能。

得益于此,根植于OceanStor A300之上的FusionCube A3000訓/推超融合一體機,存儲單節(jié)點支持高達50GB/s的帶寬以及180萬IOPS,性能數(shù)倍領(lǐng)先于業(yè)內(nèi)同類產(chǎn)品。

黑科技加持實現(xiàn)資源共享,大幅提高GPU使用效率

用戶搭建深度學習訓練環(huán)境,需要安裝Python、TensorFlow、GPU驅(qū)動等,如果要從開發(fā)環(huán)境到測試環(huán)境,再從測試環(huán)境到生成環(huán)境,涉及環(huán)境遷移過程中需要花費大量精力來保證環(huán)境的一致性。

容器帶來的標準化能力可以將相關(guān)軟件一并打包到鏡像中,一次構(gòu)建,即可在不同平臺運行,極大降低安裝、部署的復雜度;同時各容器間相互隔離,可實現(xiàn)多訓練框架并存,而且每一個框架都可以獨立進行升級而不會影響其他業(yè)務,降低日常運維的難度,讓客戶可以將更多的精力集中在AI訓練上。

華為通過高性能容器軟件,實現(xiàn)CPU和GPU等資源的池化共享。傳統(tǒng)的IT系統(tǒng)會為每個應用預留一定的物理算力資源,也意味著CPU或GPU資源將被獨占,資源的利用率通常低于40%。而通過容器應用共享CPU與GPU的資源池,資源的利用率將提升至超過70%,幫助企業(yè)達成降本增效。

面向新一輪AI浪潮的大模型時代,華為數(shù)據(jù)存儲持續(xù)突破黑科技,以創(chuàng)新數(shù)據(jù)基礎(chǔ)設施為數(shù)據(jù)智能應用筑“基”,開創(chuàng)行業(yè)大模型一站式交付新模式,大幅降低AI大模型的部署和使用門檻,開啟AI賦能千行百業(yè)的加速度!

春風來不遠,只在屋東頭!FusionCube A3000很近,“AI”不遠!

極客網(wǎng)企業(yè)會員

免責聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關(guān)資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負任何法律責任。任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。

2023-07-24
行業(yè)大模型2小時開箱即用?華為FusionCube A3000做到了
FusionCube A3000很近,“AI”不遠!

長按掃碼 閱讀全文