極客網(wǎng)·人工智能4與13日 谷歌日前聲稱,公司在AI超級計算能力方面可以勝過英偉達。但業(yè)界認為,這一消息并不可能對英偉達這家市場領(lǐng)導(dǎo)者帶來太大困擾。
谷歌近日發(fā)布一份研究報告稱,采用其TPU驅(qū)動的AI超級計算機與運行Nvidia A100 GPU的同等機器比具有更好的性能和能效。
谷歌已將4000個第四代TPU串聯(lián)在一起,構(gòu)建了一臺超級計算機,并稱這臺超級計算機的運行速度要比采用Nvidia A100 GPU的同等機器快1.7倍,效率高出1.9倍。
谷歌在俄克拉荷馬州運行的TPU v4驅(qū)動的超級計算機
英偉達從生成式AI的繁榮發(fā)展中受益,用戶對Nvidia A100 GPU的需求激增。A100主要用于訓(xùn)練大型語言AI模型,例如OpenAI的GPT-4。
業(yè)界認為,隨著英偉達新的GPU H100即將上市,該公司不太可能對谷歌的這一成就感到擔(dān)憂。
谷歌自從2020年以來一直在內(nèi)部使用TPU v4,并于去年向其谷歌云平臺的客戶提供了這些芯片。該公司最大的大型語言模型 PaLM就是使用兩臺4000 TPU超級計算機進行訓(xùn)練的。
谷歌研究人員Norm Jouppi和杰出工程師David Patterson在發(fā)表的一篇關(guān)于該系統(tǒng)的博客文章中解釋說:“采用光電路交換機可以很容易地繞過故障組件。這種靈活性甚至允許我們改變超級計算機互連的拓撲結(jié)構(gòu),以加速機器學(xué)習(xí)模型的性能?!?/p>
GlobalData負責(zé)半導(dǎo)體市場開發(fā)的Mike Orme表示,采用光電路交換機是谷歌提升超級計算機性能的關(guān)鍵。他解釋說:“雖然每個TPU的處理速度都比不上最好的英偉達AI芯片,但谷歌用于連接芯片和在芯片之間傳遞數(shù)據(jù)的光電路交換技術(shù)彌補了性能差異?!?/p>
英偉達技術(shù)已經(jīng)成為訓(xùn)練AI模型的黃金標準,一些大型科技公司購買了數(shù)千個Nvidia A100 GPU,試圖在AI的技術(shù)競爭中超越對手。而OpenAI用于訓(xùn)練GPT-4的超級計算機配備了1萬個英偉達GPU,每個零售價高達1萬美元。
Nvidia A100 GPU
最新消息顯示,A100即將被英偉達的最新型號H100所取代。在MLPerf (一個跟蹤處理器性能的開放AI工程聯(lián)盟)日前發(fā)布的推理基準測試報告中,H100在功率和效率方面位居行業(yè)榜首。
Nvidia H100 GPU
英偉達聲稱,H100 GPU的運行速度是谷歌拿來進行比較的A100 GPU的9倍。這種速度優(yōu)勢將消除谷歌光電路交換技術(shù)帶來的優(yōu)勢。
谷歌90%的AI訓(xùn)練都使用TPU,但盡管其芯片功能強大,但Orme預(yù)計谷歌并不會將其推向第三方使用,因為谷歌并沒有在AI芯片商用市場與英偉達芯片進行競爭的野心,其TPU專門用于谷歌數(shù)據(jù)中心或其AI超級計算機?!?/p>
為什么谷歌之外的用戶很少會使用這項技術(shù)?Orme認為是因為谷歌云在公共云市場上的份額很小。根據(jù)Synergy Research Group發(fā)布的調(diào)查數(shù)據(jù),谷歌云的市場份額為11%,落后于AWS和微軟Azure的34%及21%。
同時,谷歌還與英偉達達成協(xié)議,將向谷歌云客戶提供H100 GPU算力,這反映了英偉達在未來一段時間內(nèi)仍將保持市場領(lǐng)導(dǎo)者地位,連谷歌也離不開。
(免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關(guān)資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責(zé)。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負任何法律責(zé)任。
任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )