Arm®今日宣布多項全新的戰(zhàn)略合作,繼續(xù)致力于推動人工智能(AI)的創(chuàng)新,并將AI的體驗變?yōu)楝F(xiàn)實。除了自身已能實現(xiàn)AI開發(fā)的技術(shù)平臺之外,Arm還與AMD、英特爾、Meta、微軟、NVIDIA和高通技術(shù)公司等領(lǐng)先的科技企業(yè)攜手合作,通過多項計劃,聚焦于先進AI能力的實現(xiàn),由此帶來更快響應(yīng)、更加安全的用戶體驗。這些合作計劃將在所有計算進行之處,助力1500多萬名Arm開發(fā)者,構(gòu)建其所需的基礎(chǔ)框架、技術(shù)和規(guī)范,帶來新一代的AI體驗。
Arm執(zhí)行副總裁兼首席架構(gòu)師與院士Richard Grisenthwaite表示:“AI的廣泛應(yīng)用依賴于軟、硬件創(chuàng)新的持續(xù)協(xié)同。小到邊緣側(cè)運行工作負載的小型傳感器,大到處理復(fù)雜工作負載以訓(xùn)練大語言模型(LLM)的大型服務(wù)器,軟硬件的協(xié)同發(fā)展將在每個技術(shù)節(jié)點中,助力AI能力的提升。隨著整個生態(tài)系統(tǒng)不斷發(fā)掘AI的真正潛力,我們也將面臨安全性、可持續(xù)性和數(shù)據(jù)瓶頸等諸多挑戰(zhàn)。因此,繼續(xù)探索行業(yè)內(nèi)的協(xié)作至關(guān)重要,為此,我們才能實現(xiàn)AI的規(guī)?;哟筮吘墏?cè)的推理能力。”
助力邊緣AI發(fā)展
當(dāng)下生成式AI和LLM正成為人們關(guān)注的焦點,而鑒于在智能手機領(lǐng)域,70%的第三方AI應(yīng)用都運行在Arm CPU上,Arm已引領(lǐng)邊緣AI長達多年。在探索如何以可持續(xù)的方式實現(xiàn)AI并高效傳輸數(shù)據(jù)的同時,行業(yè)也需要繼續(xù)發(fā)展以實現(xiàn)在邊緣側(cè)運行AI和機器學(xué)習(xí)(ML)模型,然而,開發(fā)者在此卻面臨著計算資源日益受限的難題,使這個任務(wù)的實現(xiàn)充滿了挑戰(zhàn)。
Arm正與NVIDIA展開合作,針對NVIDIA TAO進行適配。這是一套針對ArmEthos™-U NPU使用的低代碼開源AI工具包,有助于構(gòu)建性能優(yōu)化的視覺AI模型,并將其部署于搭載Ethos-U的處理器上。NVIDIA TAO提供了一個易使用的界面,可在免費且開源的領(lǐng)先AI和ML框架——TensorFlow和PyTorch上進行構(gòu)建工作,為開發(fā)者帶來輕松無縫的模型開發(fā)和部署環(huán)境,同時賦能邊緣設(shè)備實現(xiàn)更復(fù)雜的AI工作負載,提升AI體驗。
在所有設(shè)備與市場中推動神經(jīng)網(wǎng)絡(luò)的應(yīng)用
在邊緣側(cè)推進神經(jīng)網(wǎng)絡(luò)的部署是實現(xiàn)AI可持續(xù)增長的重要一環(huán)。Arm攜手Meta,通過ExecuTorch,將PyTorch引入基于Arm架構(gòu)的邊緣側(cè)移動和嵌入式平臺。ExecuTorch可助力開發(fā)者更輕松地在移動和邊緣設(shè)備上,部署先進的AI和ML工作負載所需的先進神經(jīng)網(wǎng)絡(luò)。Arm與Meta的合作將確保通過PyTorch和ExecuTorch,開發(fā)者能在未來更輕松地開發(fā)和部署AI與ML模型。
與Meta的合作依托于Arm在Tensor運算符集架構(gòu)(TOSA)方面的巨大投入,TOSA為AI和ML加速器提供了通用框架,并支持廣泛的深度神經(jīng)網(wǎng)絡(luò)工作負載。在基于Arm架構(gòu)的各種處理器和數(shù)十億的設(shè)備上,TOSA也將成為AI和ML的堅實基石。
推動產(chǎn)業(yè)規(guī)?;腁I
若要以相對低的成本實現(xiàn)AI規(guī)?;涞?,支持廣泛的數(shù)據(jù)格式至關(guān)重要。Arm一直在為諸多專注于AI工作負載的新型小數(shù)據(jù)類型提供支持。
去年,Arm、英特爾和NVIDIA聯(lián)合發(fā)布了新型8位浮點規(guī)范,即“FP8”。自此FP8格式發(fā)展迅猛,參與合作的企業(yè)已擴大至AMD、Arm、谷歌、英特爾、Meta和NVIDIA,并共同制定了正式的OCP 8位浮點規(guī)范(OFP8)。在最新的A-profile架構(gòu)更新中,Arm添加了與該標(biāo)準(zhǔn)一致的OFP8,以助力其在行業(yè)內(nèi)神經(jīng)網(wǎng)絡(luò)中的快速普及。OFP8是交換8位數(shù)據(jù)格式,使軟件生態(tài)系統(tǒng)能夠輕松共享神經(jīng)網(wǎng)絡(luò)模型,從而不斷提高數(shù)十億設(shè)備上的AI計算能力。
開放的標(biāo)準(zhǔn)對于推動AI生態(tài)系統(tǒng)的創(chuàng)新、一致性與互操作性至關(guān)重要。為繼續(xù)支持相關(guān)標(biāo)準(zhǔn)的行業(yè)協(xié)作,Arm于近日正式加入了MX聯(lián)盟,該聯(lián)盟旗下成員包括了AMD、Arm、英特爾、Meta、微軟、NVIDIA和高通技術(shù)公司。近期,MX聯(lián)盟針對名為微擴展的新技術(shù),進行技術(shù)規(guī)范的合作。這項技術(shù)基于芯片設(shè)計領(lǐng)域多年的探索與研究,是一種用于AI應(yīng)用的窄位(8位和8位以下)訓(xùn)練與推理的精細擴展方法。該規(guī)范對窄位數(shù)據(jù)格式進行了標(biāo)準(zhǔn)化,以消除行業(yè)的碎片化,實現(xiàn)AI的規(guī)?;?。
秉承合作精神,MX聯(lián)盟通過開放計算項目OCP,以開放、免許可的形式發(fā)布了MX規(guī)范。OCP項目由超大規(guī)模數(shù)據(jù)中心運營商和計算基礎(chǔ)設(shè)施領(lǐng)域的其他行業(yè)參與者組成,旨在促進相關(guān)技術(shù)在業(yè)內(nèi)的廣泛采用。這也體現(xiàn)了各方認識到在生態(tài)系統(tǒng)中對可擴展AI解決方案提供公平訪問的必要需求。
前所未有的AI創(chuàng)新
Arm已成為全球AI部署的基礎(chǔ)。Arm致力于為開發(fā)者提供構(gòu)建先進、復(fù)雜的AI工作負載所需的技術(shù),而上述的種種合作只是Arm眾多舉措中的一部分。從傳感器、智能手機和軟件定義汽車,到服務(wù)器和超級計算機,Arm將成為未來AI發(fā)展的基石。
(免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責(zé)。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負任何法律責(zé)任。
任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )