Arm®今日宣布多項(xiàng)全新的戰(zhàn)略合作,繼續(xù)致力于推動人工智能(AI)的創(chuàng)新,并將AI的體驗(yàn)變?yōu)楝F(xiàn)實(shí)。除了自身已能實(shí)現(xiàn)AI開發(fā)的技術(shù)平臺之外,Arm還與AMD、英特爾、Meta、微軟、NVIDIA和高通技術(shù)公司等領(lǐng)先的科技企業(yè)攜手合作,通過多項(xiàng)計(jì)劃,聚焦于先進(jìn)AI能力的實(shí)現(xiàn),由此帶來更快響應(yīng)、更加安全的用戶體驗(yàn)。這些合作計(jì)劃將在所有計(jì)算進(jìn)行之處,助力1500多萬名Arm開發(fā)者,構(gòu)建其所需的基礎(chǔ)框架、技術(shù)和規(guī)范,帶來新一代的AI體驗(yàn)。
Arm執(zhí)行副總裁兼首席架構(gòu)師與院士Richard Grisenthwaite表示:“AI的廣泛應(yīng)用依賴于軟、硬件創(chuàng)新的持續(xù)協(xié)同。小到邊緣側(cè)運(yùn)行工作負(fù)載的小型傳感器,大到處理復(fù)雜工作負(fù)載以訓(xùn)練大語言模型(LLM)的大型服務(wù)器,軟硬件的協(xié)同發(fā)展將在每個(gè)技術(shù)節(jié)點(diǎn)中,助力AI能力的提升。隨著整個(gè)生態(tài)系統(tǒng)不斷發(fā)掘AI的真正潛力,我們也將面臨安全性、可持續(xù)性和數(shù)據(jù)瓶頸等諸多挑戰(zhàn)。因此,繼續(xù)探索行業(yè)內(nèi)的協(xié)作至關(guān)重要,為此,我們才能實(shí)現(xiàn)AI的規(guī)?;?,包括加大邊緣側(cè)的推理能力。”
助力邊緣AI發(fā)展
當(dāng)下生成式AI和LLM正成為人們關(guān)注的焦點(diǎn),而鑒于在智能手機(jī)領(lǐng)域,70%的第三方AI應(yīng)用都運(yùn)行在Arm CPU上,Arm已引領(lǐng)邊緣AI長達(dá)多年。在探索如何以可持續(xù)的方式實(shí)現(xiàn)AI并高效傳輸數(shù)據(jù)的同時(shí),行業(yè)也需要繼續(xù)發(fā)展以實(shí)現(xiàn)在邊緣側(cè)運(yùn)行AI和機(jī)器學(xué)習(xí)(ML)模型,然而,開發(fā)者在此卻面臨著計(jì)算資源日益受限的難題,使這個(gè)任務(wù)的實(shí)現(xiàn)充滿了挑戰(zhàn)。
Arm正與NVIDIA展開合作,針對NVIDIA TAO進(jìn)行適配。這是一套針對ArmEthos™-U NPU使用的低代碼開源AI工具包,有助于構(gòu)建性能優(yōu)化的視覺AI模型,并將其部署于搭載Ethos-U的處理器上。NVIDIA TAO提供了一個(gè)易使用的界面,可在免費(fèi)且開源的領(lǐng)先AI和ML框架——TensorFlow和PyTorch上進(jìn)行構(gòu)建工作,為開發(fā)者帶來輕松無縫的模型開發(fā)和部署環(huán)境,同時(shí)賦能邊緣設(shè)備實(shí)現(xiàn)更復(fù)雜的AI工作負(fù)載,提升AI體驗(yàn)。
在所有設(shè)備與市場中推動神經(jīng)網(wǎng)絡(luò)的應(yīng)用
在邊緣側(cè)推進(jìn)神經(jīng)網(wǎng)絡(luò)的部署是實(shí)現(xiàn)AI可持續(xù)增長的重要一環(huán)。Arm攜手Meta,通過ExecuTorch,將PyTorch引入基于Arm架構(gòu)的邊緣側(cè)移動和嵌入式平臺。ExecuTorch可助力開發(fā)者更輕松地在移動和邊緣設(shè)備上,部署先進(jìn)的AI和ML工作負(fù)載所需的先進(jìn)神經(jīng)網(wǎng)絡(luò)。Arm與Meta的合作將確保通過PyTorch和ExecuTorch,開發(fā)者能在未來更輕松地開發(fā)和部署AI與ML模型。
與Meta的合作依托于Arm在Tensor運(yùn)算符集架構(gòu)(TOSA)方面的巨大投入,TOSA為AI和ML加速器提供了通用框架,并支持廣泛的深度神經(jīng)網(wǎng)絡(luò)工作負(fù)載。在基于Arm架構(gòu)的各種處理器和數(shù)十億的設(shè)備上,TOSA也將成為AI和ML的堅(jiān)實(shí)基石。
推動產(chǎn)業(yè)規(guī)?;腁I
若要以相對低的成本實(shí)現(xiàn)AI規(guī)模化落地,支持廣泛的數(shù)據(jù)格式至關(guān)重要。Arm一直在為諸多專注于AI工作負(fù)載的新型小數(shù)據(jù)類型提供支持。
去年,Arm、英特爾和NVIDIA聯(lián)合發(fā)布了新型8位浮點(diǎn)規(guī)范,即“FP8”。自此FP8格式發(fā)展迅猛,參與合作的企業(yè)已擴(kuò)大至AMD、Arm、谷歌、英特爾、Meta和NVIDIA,并共同制定了正式的OCP 8位浮點(diǎn)規(guī)范(OFP8)。在最新的A-profile架構(gòu)更新中,Arm添加了與該標(biāo)準(zhǔn)一致的OFP8,以助力其在行業(yè)內(nèi)神經(jīng)網(wǎng)絡(luò)中的快速普及。OFP8是交換8位數(shù)據(jù)格式,使軟件生態(tài)系統(tǒng)能夠輕松共享神經(jīng)網(wǎng)絡(luò)模型,從而不斷提高數(shù)十億設(shè)備上的AI計(jì)算能力。
開放的標(biāo)準(zhǔn)對于推動AI生態(tài)系統(tǒng)的創(chuàng)新、一致性與互操作性至關(guān)重要。為繼續(xù)支持相關(guān)標(biāo)準(zhǔn)的行業(yè)協(xié)作,Arm于近日正式加入了MX聯(lián)盟,該聯(lián)盟旗下成員包括了AMD、Arm、英特爾、Meta、微軟、NVIDIA和高通技術(shù)公司。近期,MX聯(lián)盟針對名為微擴(kuò)展的新技術(shù),進(jìn)行技術(shù)規(guī)范的合作。這項(xiàng)技術(shù)基于芯片設(shè)計(jì)領(lǐng)域多年的探索與研究,是一種用于AI應(yīng)用的窄位(8位和8位以下)訓(xùn)練與推理的精細(xì)擴(kuò)展方法。該規(guī)范對窄位數(shù)據(jù)格式進(jìn)行了標(biāo)準(zhǔn)化,以消除行業(yè)的碎片化,實(shí)現(xiàn)AI的規(guī)?;?/p>
秉承合作精神,MX聯(lián)盟通過開放計(jì)算項(xiàng)目OCP,以開放、免許可的形式發(fā)布了MX規(guī)范。OCP項(xiàng)目由超大規(guī)模數(shù)據(jù)中心運(yùn)營商和計(jì)算基礎(chǔ)設(shè)施領(lǐng)域的其他行業(yè)參與者組成,旨在促進(jìn)相關(guān)技術(shù)在業(yè)內(nèi)的廣泛采用。這也體現(xiàn)了各方認(rèn)識到在生態(tài)系統(tǒng)中對可擴(kuò)展AI解決方案提供公平訪問的必要需求。
前所未有的AI創(chuàng)新
Arm已成為全球AI部署的基礎(chǔ)。Arm致力于為開發(fā)者提供構(gòu)建先進(jìn)、復(fù)雜的AI工作負(fù)載所需的技術(shù),而上述的種種合作只是Arm眾多舉措中的一部分。從傳感器、智能手機(jī)和軟件定義汽車,到服務(wù)器和超級計(jì)算機(jī),Arm將成為未來AI發(fā)展的基石。
(免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請進(jìn)一步核實(shí),并對任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。
任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書面權(quán)利通知或不實(shí)情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )