不堪忍受英偉達(dá)霸權(quán),微軟、OpenAI紛紛自研AI芯片

科技云報(bào)道原創(chuàng)。

英偉達(dá)是當(dāng)之無愧的“AI算力王者”,A100、H100系列芯片占據(jù)金字塔頂尖位置,是ChatGPT這樣的大型語言模型背后的動(dòng)力來源。

但面對(duì)英偉達(dá)的獨(dú)霸天下,科技巨頭們都紛紛下場(chǎng)自研AI芯片。

10月6日,媒體援引知情人士消息稱,微軟計(jì)劃在下個(gè)月的年度開發(fā)者大會(huì)上推出首款為人工智能設(shè)計(jì)的芯片,來降低成本并減少對(duì)英偉達(dá)的依賴。

同一天,據(jù)媒體消息顯示,ChatGPT開發(fā)商OpenAI也正在探索AI芯片的可能性,并已評(píng)估潛在的收購目標(biāo),以加速自研芯片的研發(fā)。

事實(shí)上,不僅是微軟、OpenAI試圖自研AI芯片,AWS、谷歌、Meta等科技巨頭都已下場(chǎng)自研。

在醞釀數(shù)年后,這是否意味著英偉達(dá)的獨(dú)霸時(shí)代即將結(jié)束?

巨頭紛紛自研AI芯片

目前,包括谷歌、AWS、阿里巴巴、百度、華為等國(guó)內(nèi)外云服務(wù)大廠都已有自研 AI 芯片用于數(shù)據(jù)中心,微軟和Meta也有相關(guān)計(jì)劃。所以對(duì)于頭部的AI技術(shù)大廠來說,自研AI芯片已經(jīng)是一大趨勢(shì)。

微軟早就自研芯片

作為全球頭部云廠商,微軟Azure需要大量AI處理器。尤其是和OpenAI合作以后,有消息稱微軟至少訂購了數(shù)十萬顆英偉達(dá)芯片。

因此,這幾年微軟在芯片研發(fā)上加快了進(jìn)程,先是建立由前英特爾高管Rani Borkar領(lǐng)導(dǎo)的芯片部門;后又各處招兵買馬,其中就包括前蘋果芯片架構(gòu)師Filippo;此外還和AMD展開了密切合作。

自2019年以來,微軟就開始研發(fā)一款名為"雅典娜"(Athena)的定制AI芯片,用于為大型語言模型提供動(dòng)力,目前已在測(cè)試階段。

Athena的首個(gè)目標(biāo)是為OpenAI提供算力引擎,以替代昂貴的英偉達(dá)A100/H100。如果明年大規(guī)模推出,Athena將允許微軟內(nèi)部和OpenAI的團(tuán)隊(duì)同時(shí)訓(xùn)練和推理模型。

SemiAnalysis的分析師迪倫·帕特爾(Dylan Patel)表示,開發(fā)類似于雅典娜的芯片可能每年需要花費(fèi)1億美元左右,ChatGPT每天的運(yùn)營(yíng)成本約70萬美元,大部分成本來源于昂貴的服務(wù)器,如果雅典娜芯片與英偉達(dá)的產(chǎn)品擁有同等競(jìng)爭(zhēng)力,每個(gè)芯片的成本將可以降低三分之一。

有知情人爆料,微軟在芯片研發(fā)上已砸入了近20億美元。

OpenAI計(jì)劃收購

據(jù)媒體消息稱,OpenAI也正在探索制造自研人工智能芯片,并已開始評(píng)估潛在的收購目標(biāo)。

報(bào)道稱,至少從去年開始,OpenAI就已討論各種方案,以解決AI芯片短缺問題。

OpenAI已將獲取更多AI芯片列為公司首要任務(wù),討論方案包括自研AI芯片,與包括英偉達(dá)在內(nèi)的其他芯片制造商更密切地合作,以及在英偉達(dá)之外實(shí)現(xiàn)供應(yīng)商多元化。

谷歌最早自研TPU芯片

早在2013年,谷歌就已秘密研發(fā)一款專注于AI機(jī)器學(xué)習(xí)算法的芯片,并將其用在內(nèi)部的云計(jì)算數(shù)據(jù)中心中,以取代英偉達(dá)的GPU。

2016年5月,這款自研芯片公諸于世,即TPU。TPU可以為深度學(xué)習(xí)模型執(zhí)行大規(guī)模矩陣運(yùn)算,例如用于自然語言處理、計(jì)算機(jī)視覺和推薦系統(tǒng)的模型,其最初專為谷歌的超級(jí)業(yè)務(wù)云計(jì)算數(shù)據(jù)中心而生。

2020年,谷歌實(shí)際上已在其數(shù)據(jù)中心部署了人工智能芯片TPU v4。

AWS推出訓(xùn)練和推理芯片

從2013年推出首顆Nitro1芯片至今,AWS是最先涉足自研芯片的云廠商,已擁有網(wǎng)絡(luò)芯片、服務(wù)器芯片、人工智能機(jī)器學(xué)習(xí)自研芯片3條產(chǎn)品線。

2018年初,科技媒體Information爆料亞馬遜已經(jīng)開始設(shè)計(jì)定制AI芯片。

AWS自研AI芯片版圖包括推理芯片Inferentia和訓(xùn)練芯片Trainium。2018年底,AWS推出自研AI推理芯片Inferentia,可以以低成本在云端運(yùn)行圖像識(shí)別、語音識(shí)別、自然語言處理、個(gè)性化和欺詐檢測(cè)等大規(guī)模機(jī)器學(xué)習(xí)推理應(yīng)用程序。

2020年底,AWS推出專用于訓(xùn)練機(jī)器學(xué)習(xí)模型的Trainium。

2023年初,專為人工智能打造的Inferentia 2發(fā)布。Inf2實(shí)例最多可支持1750億個(gè)參數(shù),這使其成為大規(guī)模模型推理的有力競(jìng)爭(zhēng)者。

在AWS、微軟和谷歌這三家中,亞馬遜是唯一一家在服務(wù)器中提供兩種類型芯片(標(biāo)準(zhǔn)計(jì)算芯片和用于訓(xùn)練與運(yùn)行機(jī)器學(xué)習(xí)模型的專用芯片)的云提供商,其在2015年收購以色列芯片設(shè)計(jì)公司Annapurna Labs為這些努力奠定了基礎(chǔ)。

Meta基于RISC-V開源架構(gòu)自研

直到2022年,Meta Platforms還主要使用CPU和專為加速AI算法而設(shè)計(jì)的定制芯片組合來運(yùn)行其AI工作負(fù)載。

后來,Meta取消了于2022年大規(guī)模推出定制芯片的計(jì)劃,轉(zhuǎn)而訂購了價(jià)值數(shù)十億美元的英偉達(dá)GPU。

如今為了扭轉(zhuǎn)局面,Meta已經(jīng)在開發(fā)內(nèi)部芯片,并于5月19日公布了AI訓(xùn)練與推理芯片項(xiàng)目。

據(jù)介紹,MTIA芯片的功耗僅為25瓦,占英偉達(dá)等市場(chǎng)領(lǐng)先供應(yīng)商芯片功耗的一小部分,并使用了RISC-V(第五代精簡(jiǎn)指令處理器)開源架構(gòu)。

值得注意的是,Meta于5月初收購了英國(guó)AI芯片獨(dú)角獸Graphcore的AI網(wǎng)絡(luò)技術(shù)團(tuán)隊(duì),為其自研AI芯片奠定了基礎(chǔ)。

英偉達(dá)能否被撼動(dòng)?

埃森哲公司報(bào)告指出,如今技術(shù)行業(yè)的AI滲透度明顯高出其他行業(yè),而未來企業(yè)的成長(zhǎng)潛力取決于其能在多大程度上應(yīng)用生成式AI。更關(guān)鍵的是,熟練運(yùn)用新技術(shù)也將成為國(guó)家發(fā)展的關(guān)鍵。

如今,AI技術(shù)在數(shù)據(jù)中心、智能汽車、游戲等的應(yīng)用落地方面取得了豐碩的成果,要實(shí)現(xiàn)AI大規(guī)模應(yīng)用,背后必定要有大量AI芯片的算力支持。

數(shù)據(jù)顯示,英偉達(dá)的GPU是全球應(yīng)用最為廣泛的 AI 芯片。

英偉達(dá)獨(dú)立GPU市場(chǎng)份額達(dá)80%,在高端GPU市場(chǎng)份額高達(dá)90%。2020年,全世界跑AI的云計(jì)算與數(shù)據(jù)中心,80.6%都由英偉達(dá)GPU驅(qū)動(dòng)。2021年,英偉達(dá)表示,全球前500個(gè)超算中,大約七成是由英偉達(dá)芯片驅(qū)動(dòng)的。

顯而易見,英偉達(dá)已經(jīng)壟斷了全球算力。

隨著AWS、谷歌、微軟等巨頭加入自研AI芯片的道路,英偉達(dá)的壟斷地位是否能被撼動(dòng)呢?

首先,芯片設(shè)計(jì)技術(shù)非常復(fù)雜。

高算力芯片的首要挑戰(zhàn)就是其復(fù)雜度,從芯片設(shè)計(jì)角度,高性能計(jì)算芯片中的計(jì)算單元、存儲(chǔ)訪問以及芯片間的互聯(lián)都是需要仔細(xì)考慮。

英偉達(dá)之所以引領(lǐng)GPU創(chuàng)新,源于其架構(gòu)底座不斷迭代,從2008年的Tesla架構(gòu)到2020年的Ampere架構(gòu),每一次都是對(duì)硬件的升級(jí)與改進(jìn)。代際之間產(chǎn)品性能提升顯著,性能和市場(chǎng)份額均領(lǐng)先全球。

其次,不可一世的CUDA生態(tài)。

比造芯更難的是搭建生態(tài),全球GPU生態(tài)都來自CUDA。

CUDA,是英偉達(dá)2006年推出的通用并行計(jì)算架構(gòu)生態(tài),使GPU能夠解決復(fù)雜的計(jì)算問題。

毋庸置疑,CUDA是迄今為止最發(fā)達(dá)、最廣泛的生態(tài)系統(tǒng),也是深度學(xué)習(xí)庫最有力的支持。

雖然有PyTorch支持更多GPU廠商,再加上OpenAI的Triton攪局,但無法撼動(dòng)CUDA的統(tǒng)治地位。

隨著人工智能領(lǐng)域的蓬勃發(fā)展,GPU和CUDA被從業(yè)者視為標(biāo)配,使用GPU做加速計(jì)算已成為行業(yè)主流。雖然英偉達(dá)GPU本身硬件平臺(tái)的算力卓越,但其強(qiáng)大的CUDA軟件生態(tài)才是推升GPU計(jì)算生態(tài)普及的關(guān)鍵力量。

當(dāng)前CUDA 廣泛功能已與英偉達(dá)GPU硬件深度耦合,開發(fā)者早已熟悉其專有的編程語言CUDA,用于制作GPU驅(qū)動(dòng)的應(yīng)用程序。

如果換到其他廠商的定制芯片,就需要學(xué)習(xí)全新的軟件語言了,如何說服開發(fā)者使用這些AI芯片呢?

最后,芯片的具體生產(chǎn)也是一個(gè)挑戰(zhàn)。

如何確保芯片生產(chǎn)的良率,以及如何在高級(jí)封裝和先進(jìn)工藝節(jié)點(diǎn)產(chǎn)能仍然有可能緊張的幾年內(nèi),獲得足夠的產(chǎn)能以量產(chǎn),也是各大巨頭需要解決的問題。

總體而言,想要撼動(dòng)英偉達(dá)的壟斷地位,并不是一朝一夕的事。各大科技巨頭要想在AI算力芯片上突圍,就必須在底座、專利、核心技術(shù)、人才建設(shè)、生態(tài)建設(shè)等各方面下大功夫。

免責(zé)聲明:此文內(nèi)容為第三方自媒體作者發(fā)布的觀察或評(píng)論性文章,所有文字和圖片版權(quán)歸作者所有,且僅代表作者個(gè)人觀點(diǎn),與極客網(wǎng)無關(guān)。文章僅供讀者參考,并請(qǐng)自行核實(shí)相關(guān)內(nèi)容。投訴郵箱:editor@fromgeek.com。

極客網(wǎng)企業(yè)會(huì)員

免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請(qǐng)進(jìn)一步核實(shí),并對(duì)任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對(duì)有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識(shí)產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書面權(quán)利通知或不實(shí)情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會(huì)依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。

2023-10-11
不堪忍受英偉達(dá)霸權(quán),微軟、OpenAI紛紛自研AI芯片
科技云報(bào)道原創(chuàng)。英偉達(dá)是當(dāng)之無愧的“AI算力王者”,A100、H100系列芯片占據(jù)金字塔頂尖位置,是ChatGPT這樣的大型語言模型背后的動(dòng)力來源...

長(zhǎng)按掃碼 閱讀全文