工程院院士高文:沒有大算力做大模型就是天方夜譚

7月7日消息,中國工程院院士、鵬城實驗室主任高文 6 日在2023世界人工智能大會(WAIC2023)昇騰人工智能產(chǎn)業(yè)高峰論壇上演講時表示,沒有大算力做大模型就是天方夜譚,這就和電力是一樣的,可以省點電做出什么產(chǎn)品來,別人真正懂行的人聽了都不信的,一定要有算力作為基礎。

“美國的算力現(xiàn)在指數(shù)是排第一,比我們大概多了 30% 的算力,那么也就代表 GDP 也比我們多 30%,什么時候我們的算力超過了美國,咱們的 GDP 就可以超過美國了?!?/p>

他表示,從現(xiàn)在開始,算力也是數(shù)字經(jīng)濟發(fā)展的一個指數(shù),算力夠,你的數(shù)字經(jīng)濟就能夠發(fā)展好,不夠就發(fā)展不好。

以下為高文演講全文:

各位專家、各位領導,大家下午好!

前面的領導都講得很好,算力是非常重要的一件事,今天上午陳書記在講的時候也講到,上要抓三件大事,人工智能方面其中就有一個是算力建設,算力建設非常重要的一方面,就像電力一樣。

從現(xiàn)在開始,算力也是數(shù)字經(jīng)濟發(fā)展的一個指數(shù),你算力夠,你的數(shù)字經(jīng)濟就能夠發(fā)展好,不夠就發(fā)展不好。所以,特別是智能算力就非常關鍵。

所以跟大家分享關于鵬城云腦的智算平臺,再就是分享一下在這個平臺上面做的鵬城腦海大模型。

首先,我們說算力很重要,重要到什么程度呢?

清華大學的一個 2022 年的咨詢報告說到了,經(jīng)過統(tǒng)計計算力指數(shù)和 GDP 是正相關的關系,你算力越強你的 GDP 就越強,最右邊的圖可以看到,美國的算力現(xiàn)在指數(shù)是排第一,比我們大概多了 30% 的算力,那么也就代表 GDP 也比我們多 30%,什么時候我們的算力超過了美國,咱們的 GDP 就可以超過美國了。

正是因為算力這么重要,所以發(fā)展人工智能和經(jīng)濟沒有算力不可能,要有算力要有芯片,芯片做成機器,用這個機器訓練這個模型,為了做這件事,我們在 2020 年深圳就做了一臺機器,這臺 機器叫鵬城云腦 II,這臺機器的算力在 2020 年的時候是全世界做人工智能訓練最強的一臺機器,比當時微軟、谷歌的機器都要強,相當于是 4000 塊卡的機器,而且這臺機器是 4000 塊 A100 卡的機器,這臺機器是用全光網(wǎng)絡把它連起來的,節(jié)點和節(jié)點之間的延遲非常低。

因為,有了這臺機器可以做很多事,包括我們可以做科學研究,可以做產(chǎn)業(yè)應用還有關鍵技術的研發(fā)。

這臺機器剛剛我說有 4000 塊卡,一個是鯤鵬 CPU,一個是昇騰 NPU,都是華為的。

有了這臺機器以后,那么這臺機器的性能行不行呢?就參加世界 TOP500 的超算的打榜,整個超算整個算力的打榜,同時它也有其他的賽道,我們參加的一 個是 IO500 的賽道,你的輸出和輸入能力的賽道,我們從 2020 年 10 月份這臺機器做出來以后,11 月份就參加打榜,連續(xù) 6 次第一,每半年有一次打榜,全節(jié)點連續(xù)二次第一。

所以,這臺機器在做人工智能訓練這件事,別人沒辦法和它比。這臺機器的 AI 算力,這個是三年一次的,也參加了打榜,連續(xù)三次第一。這臺機器不僅硬件強,接口能力和網(wǎng)絡非常強,同時上面的軟件也是配備得比較完備,包括怎么樣做分布式計算,怎么樣做命令調(diào)優(yōu)、自研的調(diào)度規(guī)劃等等。這臺機器這么大規(guī)模的機器以前還是第一次,相當于它的四臺機器,其實是四臺我們的機器組成這一臺了,上面有很多軟件的挑戰(zhàn)。

可能有的專家也許聽到過,有人說全世界能在 1000 塊卡上同時選連一個模型的只有幾千人,能在 4000 塊卡上訓練的不超過 100 個人,在 10000 塊卡上訓練模型的人數(shù)更少了,大規(guī)模的卡上一起做事,對于軟件規(guī)劃、資源調(diào)度挑戰(zhàn)非常大。

我們不僅僅是把鵬城云腦 II 用好,我們也承擔了國家發(fā)改委的任務,用鵬城云腦 II 類似的華為生態(tài)的,用在昇騰 AI 集群,不管是 100P 和 900P 的算力結(jié)點,我們用網(wǎng)絡把資源連起來,可以給大家提供,告訴你這里有資源可以通過網(wǎng)絡去用。

同時,我們還把華為生態(tài)以外的,按照發(fā)改委的要求,希望這是異構(gòu)的算力網(wǎng)的平臺,我們也選擇了部分其他廠商的算力,在 2022 年 6 月這個項目驗收的時候,已經(jīng)聚合的智能算力到了 2300P,云腦 II 只是 1000P,這個系統(tǒng)已經(jīng)聚集了 2300P 的智能算力。

我們有了云腦 II 可以訓練大模型了,訓練大模型還是很費算力的,但是即使你可以訓練大模型,現(xiàn)在的需求根本不夠用,我們正在規(guī)劃做云腦 III。

下面我說說大模型,鵬城正在做一個大模型,這個是 2000 億參數(shù),也就是 200B 的參數(shù),為什么做這件事呢?

不用再花時間了,因為有 Chat GPT 和類 Chat GPT 大模型在不停地涌現(xiàn),同時因為現(xiàn)在很多公司都用這個東西做產(chǎn)業(yè)應用,去做服務。所以,現(xiàn)在這個模型變得很重要了,但是現(xiàn)在有錢的公司可以砸?guī)讉€億做這樣的機器,甚至十幾個億和幾十個億,但是大多數(shù)的公司做不了。

這個領域需求這么大,怎么辦呢?

我們鵬城實驗室可以做一個底座,模型訓練完開放出去,大家在這個底座說做垂直應用。按照這樣的思路,我們首先有鵬城云腦 II 的算力,前一階段我們積累了很多的數(shù)據(jù),這一段時間前幾個月我們通過各個渠道,包括購買拿到數(shù)據(jù),先下面做清晰,清晰的數(shù)據(jù)很重,可能我拿到了 100 個數(shù)據(jù),清晰完就剩幾個了,因為有很多是重復和不規(guī)范的,這些東西拿掉就變得很小。雖然拿了很多的數(shù)據(jù),但是真正用來做訓練的數(shù)據(jù)只有 1%-5%。有了這個數(shù)據(jù)我們就可以做大模型底座。

這個大模型底座,我們就是用的生成式預訓練模型,就是和 GPT 完全類似的底層的東西,用這個東西訓練一個好的模型,希望可以開放出去。

現(xiàn)在這個模型我們想著 2000 億參數(shù),200B 的參數(shù),這個訓出來以后,我們希望把它給到合作伙伴那里,而且提供相應的指令微調(diào)和相應的人工增強學習的工具,甚至做一兩個垂直領域,做樣板作為垂直應用,怎么樣用告訴大家,因為華為在這方面很有經(jīng)驗,我們建議誰想做垂直應用,可以到華為得到一些咨詢用這個模型做他們的應用。

有了這個東西,我們希望能夠快速把這個模型做完可以推向社會,讓社會在這個模型上開發(fā)中國自己的人工智能大模型應用系統(tǒng)。現(xiàn)在我們正在緊鑼密鼓往前推,應該是 8 月底第一次所有的訓練就訓練完了,9 月份就會把模型開放出去。

現(xiàn)在訓練的數(shù)據(jù)有多大呢?我們說的是喂數(shù)據(jù),每天喂 10 個 B,但是最重要喂一個 T 的數(shù)據(jù),一個 T 是由幾百個 T 清晰來的,現(xiàn)在數(shù)據(jù)都是中文和代碼數(shù)據(jù),現(xiàn)在 4000 多塊卡的機器每天可以吃掉 10 個 B,100 天就能吃掉 1000 個 B,就是一個 T,我訓練 2000 億參數(shù)的模型,需要 4000 塊卡訓練 100 天。

這就是算力,你如果不夠大的話,做一個模型還是很辛苦的,而且我現(xiàn)在才訓練了一個 T 的數(shù)據(jù),訓練兩到三個 T 的話,還要加兩到三個 100 天,沒有大算力做大模型就是天方夜譚,當然有很多人說我可以用限速(音)等等這樣那樣的,但是實際上這就和電力是一樣的,可以省點電做出什么產(chǎn)品來,別人真正懂行的人聽了都不信的,一定要有算力作為基礎。

我們的算力到現(xiàn)在為止,怎么樣把數(shù)據(jù)做好訓練得快,我們有一套體系,有一個開源社區(qū)叫啟智開源社區(qū),這里面有很多的工程師做飛輪數(shù)據(jù)工程,可以使你清晰數(shù)據(jù)做得非???,有很多自動和半自動的清晰數(shù)據(jù),都可以幫助你。

模型訓練,4000 塊卡吃掉 10 個 B 的數(shù)據(jù),整個的損失每天都在降一點,我 們看著特別高興,每天有數(shù)據(jù)匯報,一天降了 0.2,我們現(xiàn)在大概在 2 的上下浮動,我們希望最終可以降到 1.8 左右。

這是訓練的過程,同時我們要考慮應用的 時候有隱私數(shù)據(jù)有一些數(shù)據(jù)應用者,希望到你這個模型應用一下,但是不希望自己的數(shù)據(jù)被丟掉或者是看到,我們提供了隱私數(shù)據(jù)保護的模塊,我們叫防損包,有了這樣一套體系就可以支持應用了。

我們希望鵬城腦海出來了可以快速向社會賦能,可以讓大家做數(shù)字政府、“一帶一路”、智能制造、智慧金融、智慧醫(yī)療等等各種各樣可能的應用,這里有黃顏色和白顏色,黃顏色是現(xiàn)在已經(jīng)投進人去做了,你做指令微調(diào)和正向?qū)W習都需要。后面是放給合作伙伴去做的,而且我們還有一些完整的整個教育計劃、人才計劃,人才計劃就希望這個模型訓練放出來,大量培養(yǎng)人才,通過高校和合作伙伴培養(yǎng),能讓中國的大模型應用快速啟動。

小結(jié)一下,鵬城實驗室在鵬城云腦 II 硬件平臺和鵬城腦海大模型這兩件事都在和華為合作正在往前推進,希望可以對中國人工智能大模型用貢獻一點力量,作為一個基石,希望大家多關心、多參與。

謝謝大家。

極客網(wǎng)企業(yè)會員

免責聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權或存在不實內(nèi)容時,應及時向本網(wǎng)站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內(nèi)容或斷開相關鏈接。

2023-07-07
工程院院士高文:沒有大算力做大模型就是天方夜譚
算力也是數(shù)字經(jīng)濟發(fā)展的一個指數(shù)。

長按掃碼 閱讀全文