生成式AI大模型,或?qū)⒑硠釉品?wù)市場格局

科技云報道原創(chuàng)。

隨著ChatGPT、GPT-4、BARD等生成式AI大模型的爆火,云服務(wù)商圍繞生成式AI的競爭日趨激烈。

微軟將Azure的企業(yè)級功能與OpenAI的生成式AI模型功能相結(jié)合,發(fā)布了Azure OpenAI服務(wù);

緊隨其后,谷歌開放了AI大模型PaLM的API,并在谷歌企業(yè)級線上協(xié)作平臺Google Workspace中引入了生成式AI功能。

近日,亞馬遜云科技也推出了一項名為Amazon Bedrock的生成式AI云托管服務(wù),用戶可以通過API訪問AI21Labs、Anthropic和Stability AI等AI初創(chuàng)公司的預(yù)訓(xùn)練基礎(chǔ)模型,還提供對亞馬遜云科技開發(fā)的基礎(chǔ)模型系列Amazon Titan FMs的獨家訪問。

國內(nèi)云服務(wù)廠商如:百度、阿里、京東、360等,也都密集宣布AI大模型技術(shù)進展以及類ChatGPT項目計劃。

事實上,在這場由ChatGPT掀起的巨大聲浪中,云計算扮演著十分重要的角色。

比如,ChatGPT的模型訓(xùn)練需要大量的數(shù)據(jù)資源和計算資源,云計算則為模型的開發(fā)和運行提供了強大的技術(shù)基礎(chǔ),這或許也是國內(nèi)外眾多云廠商選擇跟進ChatGPT的原因所在。

隨著云廠商們加速對ChatGPT的布局,未來云計算市場的競爭格局是否會被重新改寫呢?

云服務(wù)商為何搶占生成式AI模型?

眾所周知,以ChatGPT為代表的生成式AI技術(shù)十分耗錢,背后需要依靠強大的AI模型和海量數(shù)據(jù),其所需要的云服務(wù)算力成本十分龐大。

以ChatGPT為例,據(jù)SimilarWeb數(shù)據(jù),2023年1月ChatGPT官網(wǎng)總訪問量為6.16億次;據(jù)《Fortune》雜志,每次用戶與ChatGPT互動,產(chǎn)生的算力云服務(wù)成本約0.01美元,如果使用總投資30.2億元、算力500P的數(shù)據(jù)中心來支撐ChatGPT的運行,至少需要7-8個這樣的數(shù)據(jù)中心,基礎(chǔ)設(shè)施的投入都是以百億計的。

但對于參與其中的微軟、谷歌、亞馬遜云科技、百度、阿里等廠商而言,其資金實力雄厚,足以覆蓋投入大模型訓(xùn)練的云基建建設(shè)成本。

且隨著未來大模型訓(xùn)練成本的進一步降低,云服務(wù)商也有其自身的優(yōu)勢。

相較于成本問題,生成式AI技術(shù)帶來的前景不可小覷。

首先,AI大模型訓(xùn)練會為云廠商貢獻大量的直接營收。

目前,云服務(wù)商的增速下降已經(jīng)是擺在“明面上的事情了”。

據(jù)去年11月17日發(fā)布的阿里云季報顯示,其增速已經(jīng)降至4%,首次跌至個位數(shù),在此之前其整體增速已經(jīng)連續(xù)三季度低于15%了,創(chuàng)下了多年來新低;與此同時,騰訊云、華為云等前四大云廠商也都呈現(xiàn)出增速下跌的態(tài)勢。

在此背景下,AI大模型訓(xùn)練無疑為其打開了新的空間。

據(jù)投資機構(gòu)A16Z的研究數(shù)據(jù)發(fā)現(xiàn),應(yīng)用程序公司平均將約20%-40%的年收入,用于推理和定制化的微調(diào)。

這部分通常直接支付給云服務(wù)提供商,以獲取實例或支付給第三方模型提供商,后者將大約一半的收入投入于云基礎(chǔ)設(shè)施。

據(jù)此推算,生成式AI將有10%-20%的營收將直接流向云服務(wù)商。

另外,很多初創(chuàng)自有模型的企業(yè),將會將其多達幾十億的風(fēng)險投資中的大部分,用于支付給外部云服務(wù)商身上,以訓(xùn)練自有大模型。

對于云服務(wù)商廠商而言,這樣的新興市場無疑是特別值得期待的事情。

其次,AI大模型的使用將增加云服務(wù)商的市場競爭力。

從技術(shù)上看,對于NLP任務(wù)的場景,ChatGPT等AI大模型擁有更強的優(yōu)勢,能夠智能化生成一系列文本內(nèi)容,為用戶提供更加便捷和高效的應(yīng)用體驗。

現(xiàn)在,各大云服務(wù)商也都推出了自己的AI大模型。

例如,亞馬遜云科技的Amazon SageMaker是業(yè)內(nèi)知名的基于云的機器學(xué)習(xí)開發(fā)平臺,可以使得機器學(xué)習(xí)模型的部署更加簡單和有效,并且在模型更新和部署方面較為靈活。

近日亞馬遜云科技推出的生成式AI托管服務(wù)Amazon Bedrock,則進一步降低了用戶使用生成式AI的門檻,讓用戶可以自由地選擇其自研的基礎(chǔ)大模型Amazon Titan(包含基于不同場景下的兩個子模型TitanText和Titan Embeddings),以及AI21Labs、Anthropic和Stability AI等業(yè)內(nèi)領(lǐng)先的第三方基礎(chǔ)模型,用少量的數(shù)據(jù)就可以在基礎(chǔ)模型上訓(xùn)練自己的定制模型。

通過API的方式訪問基礎(chǔ)模型,構(gòu)建生成式AI應(yīng)用,不必自己管理和運維底層基礎(chǔ)設(shè)施。

谷歌Cloud AI Platform則在模型調(diào)試和優(yōu)化上比較出色,同時可以靈活運用GPU并行計算實現(xiàn)對模型復(fù)雜度和架構(gòu)的把握。

微軟Azure的Cognitive Services主要應(yīng)用于語言音頻、計算視覺等方面,可以幫助企業(yè)在多個領(lǐng)域應(yīng)用AI技術(shù)。

總體而言,AI應(yīng)用已經(jīng)成為了云服務(wù)商的重點發(fā)展領(lǐng)域,推出AI大模型可以滿足客戶需要的AI應(yīng)用,提高云服務(wù)商的技術(shù)實力和市場競爭力。

最后,AI大模型能促進云服務(wù)商自身技術(shù)研發(fā)的深度發(fā)展。

生成式AI或?qū)⑼苿诱麄€云服務(wù)行業(yè)的整體升級。

據(jù)OpenAI測算,自2012年以來,全球頭部AI模型訓(xùn)練算力需求3-4個月翻一番,每年增長幅度高達10倍。

但根據(jù)摩爾定律,芯片計算性能每隔18-24個月才能翻一番,也就說芯片性能遠遠跟不上AI訓(xùn)練的算力需求。

云計算發(fā)展到今天,隨著數(shù)據(jù)密集型場景越來越多。

比如,云計算從業(yè)務(wù)處理為中心轉(zhuǎn)向數(shù)據(jù)處理為中心,CPU更多是在處理網(wǎng)絡(luò)事務(wù)而不是用于計算,這相當(dāng)于數(shù)據(jù)中心部署的很多服務(wù)器,被白白浪費了。

此時,解決之道是不再借助CPU,而是打造只為云計算服務(wù)的芯片,相當(dāng)于云上的Windows系統(tǒng)。

為此,云廠商們也有了自己的想法。比如亞馬遜云科技、微軟、阿里等廠商均加大了自研芯片的力度,試圖將AI引領(lǐng)下的“算力自由”牢牢掌控在自己手里。

例如,近日亞馬遜云科技就宣布基于Amazon Inferentia2芯片的Amazon EC2 Inf2實例全面可用,打造最具成本效益的生成式AI云基礎(chǔ)設(shè)施。

同時,亞馬遜云科技基于Amazon Trainium芯片的新型Trn1n實例也正式可用,該實例將網(wǎng)絡(luò)帶寬提高了一倍,為訓(xùn)練生成式AI模型提供了更高的性能。

亞馬遜云科技大中華區(qū)產(chǎn)品部總經(jīng)理陳曉建在采訪中舉例道,在一個BERT環(huán)境中,如果基于英偉達的GPU實例并使用16個節(jié)點,簡單的模型訓(xùn)練可能需要13個小時;但在內(nèi)部測試中,基于亞馬遜云科技自研的Trainium訓(xùn)練芯片,同樣使用16個節(jié)點,只需要5個小時就可以完成訓(xùn)練。

同樣,如果是基于NLP的大模型訓(xùn)練,需要8個GPU卡才能完成。

但是如果采用亞馬遜云科技自研的Inferentia2,同樣的負載只需要4個Inferentia2芯片即可,將用戶整個硬件部署的環(huán)境、復(fù)雜性、和成本資金都降低一半。

云服務(wù)或?qū)⒂瓉韮r值重估

隨著生成式AI與云產(chǎn)品的加速融合,以及產(chǎn)業(yè)進入“深度用云”時代,基于云計算的AI能力逐步得到了企業(yè)與行業(yè)的驗證。

AI與云的結(jié)合能夠降低企業(yè)上云的門檻,同時憑借AI的深度學(xué)習(xí)能力發(fā)揮數(shù)據(jù)價值,為企業(yè)搭建更好的“用云”路徑。

具體來說,隨著AI大模型技術(shù)的成熟,未來整個AI應(yīng)用的創(chuàng)新門檻更低(成本更低、迭代更快),初創(chuàng)企業(yè)可以基于大模型創(chuàng)新而不是底層的芯片層和框架層創(chuàng)新。

同時,企業(yè)在用云時候更多會基于云服務(wù)廠商的大模型成熟度,來選擇云廠商。

例如,Airbnb、GE等國際大企業(yè),已經(jīng)在使用亞馬遜云科技底層的計算資源、訓(xùn)練框架、訓(xùn)練平臺,來進行自己大模型訓(xùn)練。

通過Amazon SageMaker,用戶可以實現(xiàn)從數(shù)據(jù)標注、大規(guī)模分布式訓(xùn)練以及到機器學(xué)習(xí)模型運維和在線推理的完整的端到端的任務(wù)。

其中,GE Healthcare創(chuàng)建了一個以改進傳統(tǒng)的 X 射線成像技術(shù)(如超聲波和 CT 掃描)為中心的深度學(xué)習(xí)算法庫。

通過將患者報告數(shù)據(jù)、傳感器數(shù)據(jù)和許多其它來源的各種數(shù)據(jù)集合并到掃描過程中,該算法將能夠識別正常結(jié)果和異常結(jié)果之間的差異。

根據(jù)最近的一項調(diào)查,82%的醫(yī)療決策者說,使用數(shù)據(jù)改善了病人的護理,而63%的人報告說再入院率降低。

事實上,這一變化為原本競爭已經(jīng)固化的云服務(wù)市場帶來了重估機會。

從全球范圍來看,AWS第一、Azure第二、阿里云第三的局面,已經(jīng)持續(xù)了很長時間了,從IDC的數(shù)據(jù)來看,至少五年內(nèi)這種3A格局未曾打破過,緊隨其后分居第四、第五位的谷歌云、IBM,始終被前三名的巨頭壓制著。

從國內(nèi)市場來看,阿里云一騎絕塵的領(lǐng)先者優(yōu)勢也已經(jīng)保持多年,市場份額第一很難撼動。

但隨著生成式AI大模型的出現(xiàn),這一局面或?qū)⒌玫綇氐鬃兓?,這是因為更接近前端的應(yīng)用普及,對云服務(wù)下半程的競爭至關(guān)重要。

值得一提的是,微軟的高層在宣布接入ChatGPT之后,曾對外表示:“ChatGPT或?qū)游④浽瞥絹嗰R遜云?!蓖瑯拥脑挘俣菴EO李彥宏也說了一遍,他表示文心一言帶來的優(yōu)勢,將可能引導(dǎo)百度智能云進入市場第一。從兩大巨頭的高層表態(tài)來看,生成式AI技術(shù)或?qū)⒔o云行業(yè)帶來新的大洗牌。

需要指出的是,當(dāng)前生成式AI技術(shù)的落地還存在一些不確定性,能否確實成為產(chǎn)業(yè)互聯(lián)網(wǎng)的全新應(yīng)用也還需要時間驗證。

有業(yè)內(nèi)人士表示,ChatGPT仍是個不成熟的產(chǎn)品,目前炒作的意味更濃,未來能不能真正帶來產(chǎn)業(yè)價值還是一個未知數(shù)。

可見,生成式AI離真正的產(chǎn)業(yè)化還有相當(dāng)距離,至少還需要不少的時間,能否真的為云服務(wù)產(chǎn)品帶來革命式變化,以及撼動云服務(wù)市場格局,還需要進一步觀察。

來源:科技云報道

免責(zé)聲明:此文內(nèi)容為第三方自媒體作者發(fā)布的觀察或評論性文章,所有文字和圖片版權(quán)歸作者所有,且僅代表作者個人觀點,與極客網(wǎng)無關(guān)。文章僅供讀者參考,并請自行核實相關(guān)內(nèi)容。投訴郵箱:editor@fromgeek.com。

極客網(wǎng)企業(yè)會員

免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關(guān)資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責(zé)。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負任何法律責(zé)任。任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。

2023-04-27
生成式AI大模型,或?qū)⒑硠釉品?wù)市場格局
生成式AI大模型,或?qū)⒑硠釉品?wù)市場格局

長按掃碼 閱讀全文