李開(kāi)復(fù)創(chuàng)辦的零一萬(wàn)物發(fā)布大模型Yi-34B 奪下全球開(kāi)源評(píng)測(cè)“雙料冠軍”

11月6日消息,李開(kāi)復(fù)博士帶隊(duì)創(chuàng)辦的AI 2.0公司零一萬(wàn)物,正式開(kāi)源發(fā)布首款預(yù)訓(xùn)練大模型 Yi-34B。

根據(jù) Hugging Face 英文開(kāi)源社區(qū)平臺(tái)和C-Eval 中文評(píng)測(cè)的最新榜單,Yi-34B預(yù)訓(xùn)練模型以黑馬姿態(tài)取得了多項(xiàng) SOTA 國(guó)際最佳性能指標(biāo)認(rèn)可,成為全球開(kāi)源大模型“雙料冠軍”,這也是迄今為止唯一成功登頂 Hugging Face 全球開(kāi)源模型排行榜的國(guó)產(chǎn)模型。

零一萬(wàn)物創(chuàng)始人及CEO李開(kāi)復(fù)博士表示:“零一萬(wàn)物堅(jiān)定進(jìn)軍全球第一梯隊(duì)目標(biāo),從招的第一個(gè)人,寫(xiě)的第一行代碼,設(shè)計(jì)的第一個(gè)模型開(kāi)始,就一直抱著成為‘World's No.1’的初衷和決心。我們組成了一支有潛力對(duì)標(biāo) OpenAI、Google等一線大廠的團(tuán)隊(duì),經(jīng)歷了近半年的厚積薄發(fā),以穩(wěn)定的節(jié)奏和全球齊平的研究工程能力,交出了第一張極具全球競(jìng)爭(zhēng)力的耀眼成績(jī)單。Yi-34B可以說(shuō)不負(fù)眾望,一鳴驚人?!?/p>

Yi-34B 登頂全球英文及中文權(quán)威榜單No.1

零一萬(wàn)物此次開(kāi)源發(fā)布的Yi系列模型,包含34B和6B兩個(gè)版本。讓人驚艷的是,在Hugging Face 英文測(cè)試公開(kāi)榜單 Pretrained 預(yù)訓(xùn)練開(kāi)源模型排名中,Yi-34B 在各項(xiàng)性能上表現(xiàn)強(qiáng)勁,以70.72的分?jǐn)?shù)位列全球第一,碾壓 LLaMA2-70B和 Falcon-180B等眾多大尺寸模型。

Hugging Face 是全球最受歡迎的大模型、數(shù)據(jù)集開(kāi)源社區(qū),被認(rèn)為是大模型領(lǐng)域的GitHub,在大模型英文能力測(cè)試中具有相當(dāng)權(quán)威性。對(duì)比參數(shù)量和性能,Yi-34B相當(dāng)于只用了不及LLaMA2-70B一半、Falcon-180B五分之一的參數(shù)量,取得了在各項(xiàng)測(cè)試任務(wù)中超越全球領(lǐng)跑者的成績(jī)。憑借出色表現(xiàn),躋身目前世界范圍內(nèi)開(kāi)源最強(qiáng)基礎(chǔ)模型之列。

Hugging Face Open LLM Leaderboard (pretrained) 大模型排行榜,Yi-34B高居榜首(2023年11月5日)

作為國(guó)產(chǎn)優(yōu)質(zhì)大模型, Yi-34B更“懂”中文。在C-Eval中文權(quán)威榜單排行榜上超越了全球所有開(kāi)源模型。對(duì)比大模型標(biāo)桿GPT-4,在CMMLU、E-Eval、Gaokao 三個(gè)主要的中文指標(biāo)上,Yi-34B 也具有絕對(duì)優(yōu)勢(shì),凸顯中文世界的優(yōu)異能力,更好地滿足國(guó)內(nèi)市場(chǎng)需求。

C-Eval 排行榜:公開(kāi)訪問(wèn)的模型,Yi-34B 全球第一(2023年11月5日)

從更為全面的評(píng)估看,在全球大模型各項(xiàng)評(píng)測(cè)中最關(guān)鍵的 “MMLU”(Massive Multitask Language Understanding 大規(guī)模多任務(wù)語(yǔ)言理解)、BBH等反映模型綜合能力的評(píng)測(cè)集上,Yi-34B 同樣表現(xiàn)突出,在通用能力、知識(shí)推理、閱讀理解等多項(xiàng)指標(biāo)評(píng)比中全部勝出,與 Hugging Face 評(píng)測(cè)高度一致。

各評(píng)測(cè)集得分:Yi 模型 v.s. 其他開(kāi)源模型

但和 LLaMA2一樣,Yi系列模型在GSM8k、MBPP 的數(shù)學(xué)和代碼評(píng)測(cè)表現(xiàn)略遜GPT模型。由于零一萬(wàn)物的技術(shù)路線傾向于在預(yù)訓(xùn)練階段盡可能保留模型的通用能力,因此沒(méi)有加入過(guò)多的數(shù)學(xué)和代碼數(shù)據(jù)。研究團(tuán)隊(duì)此前在《Mammoth: Building math generalist models through hybrid instruction tuning》等研究工作中針對(duì)數(shù)學(xué)方向進(jìn)行過(guò)深度探索,在未來(lái),零一萬(wàn)物的系列開(kāi)源計(jì)劃中將推出代碼能力和數(shù)學(xué)能力專項(xiàng)的繼續(xù)訓(xùn)練模型。

全球最長(zhǎng)200K上下文窗口,40萬(wàn)字文本極速處理,直接開(kāi)源

值得注意的是,此次開(kāi)源的Yi-34B模型,將發(fā)布全球最長(zhǎng)、可支持200K 超長(zhǎng)上下文窗口(context window)版本,可以處理約40萬(wàn)漢字超長(zhǎng)文本輸入。相比之下,OpenAI的GPT-4上下文窗口只有32K,文字處理量約2.5萬(wàn)字。今年三月,硅谷知名 AI 2.0 創(chuàng)業(yè)公司Anthropic的Claude2-100K 將上下文窗口擴(kuò)展到了100K規(guī)模,零一萬(wàn)物直接加倍,并且是第一家將超長(zhǎng)上下文窗口在開(kāi)源社區(qū)開(kāi)放的大模型公司。

在語(yǔ)言模型中,上下文窗口是大模型綜合運(yùn)算能力的金指標(biāo)之一,對(duì)于理解和生成與特定上下文相關(guān)的文本至關(guān)重要,擁有更長(zhǎng)窗口的語(yǔ)言模型可以處理更豐富的知識(shí)庫(kù)信息,生成更連貫、準(zhǔn)確的文本。

此外,在文檔摘要、基于文檔的問(wèn)答等下游任務(wù)中,長(zhǎng)上下文的能力發(fā)揮著關(guān)鍵作用,行業(yè)應(yīng)用場(chǎng)景廣闊。在法律、財(cái)務(wù)、傳媒、檔案整理等諸多垂直場(chǎng)景里,更準(zhǔn)確、更連貫、速度更快的長(zhǎng)文本窗口功能,可以成為人們更可靠的AI助理,讓生產(chǎn)力迅猛提升。然而,受限于計(jì)算復(fù)雜度、數(shù)據(jù)完備度等問(wèn)題,上下文窗口規(guī)模擴(kuò)充從計(jì)算、內(nèi)存和通信的角度存在各種挑戰(zhàn),因此大多數(shù)發(fā)布的大型語(yǔ)言模型僅支持幾千tokens的上下文長(zhǎng)度。

為了解決這個(gè)限制,零一萬(wàn)物技術(shù)團(tuán)隊(duì)實(shí)施了一系列優(yōu)化,包括:計(jì)算通信重疊、序列并行、通信壓縮等。通過(guò)這些能力增強(qiáng),實(shí)現(xiàn)了在大規(guī)模模型訓(xùn)練中近100倍的能力提升,也為Yi系列模型上下文規(guī)模下一次躍升儲(chǔ)備了充足“電力”。

Yi-34B的200K上下文窗口直接開(kāi)源,不僅能提供更豐富的語(yǔ)義信息,理解超過(guò)1000頁(yè)的PDF文檔,讓很多依賴于向量數(shù)據(jù)庫(kù)構(gòu)建外部知識(shí)庫(kù)的場(chǎng)景,都可以用上下文窗口來(lái)進(jìn)行替代。Yi-34B的開(kāi)源屬性也給想要在更長(zhǎng)上下文窗口進(jìn)行微調(diào)的開(kāi)發(fā)者提供了更多的可能性。

AI Infra 是大模型核心護(hù)城河,實(shí)測(cè)實(shí)現(xiàn)40%訓(xùn)練成本下降

AI Infra(AI Infrastructure 人工智能基礎(chǔ)架構(gòu)技術(shù))主要涵蓋大模型訓(xùn)練和部署提供各種底層技術(shù)設(shè)施,包括處理器、操作系統(tǒng)、存儲(chǔ)系統(tǒng)、網(wǎng)絡(luò)基礎(chǔ)設(shè)施、云計(jì)算平臺(tái)等等,是模型訓(xùn)練背后極其關(guān)鍵的“保障技術(shù)”,這是大模型行業(yè)至今較少受到關(guān)注的硬技術(shù)領(lǐng)域。

李開(kāi)復(fù)曾經(jīng)表示,“做過(guò)大模型Infra的人比做算法的人才更稀缺”。在打造“World's No.1"梯隊(duì)時(shí),超強(qiáng)的Infra 能力是大模型研發(fā)的核心護(hù)城河之一。如果說(shuō)訓(xùn)練大模型是登山,Infra的能力定義了大模型訓(xùn)練算法和模型的能力邊界,也就是“登山高度”的天花板。在芯片、GPU等算力資源緊缺的當(dāng)下,安全和穩(wěn)定成為大模型訓(xùn)練的生命線。零一萬(wàn)物的 Infra 技術(shù)通過(guò)“高精度”系統(tǒng)、彈性訓(xùn)和接力訓(xùn)等全棧式解決方案,確保訓(xùn)練高效、安全地進(jìn)行。

憑借強(qiáng)大的 AI Infra 支撐,零一萬(wàn)物團(tuán)隊(duì)能實(shí)現(xiàn)超越行業(yè)水平的訓(xùn)練效果,Yi-34B模型訓(xùn)練成本實(shí)測(cè)下降40%,實(shí)際訓(xùn)練完成達(dá)標(biāo)時(shí)間與預(yù)測(cè)的時(shí)間誤差不到一小時(shí),進(jìn)一步模擬上到千億規(guī)模訓(xùn)練成本可下降多達(dá)50%。截至目前,零一萬(wàn)物Infra能力實(shí)現(xiàn)故障預(yù)測(cè)準(zhǔn)確率超過(guò)90%,故障提前發(fā)現(xiàn)率達(dá)到99.9%,不需要人工參與的故障自愈率超過(guò)95%,有力保障了模型訓(xùn)練的順暢進(jìn)行。

在 Yi 開(kāi)源模型的全球首發(fā)日,零一萬(wàn)物CEO李開(kāi)復(fù)也宣布,在完成 Yi-34B 預(yù)訓(xùn)練的同時(shí),已經(jīng)旋即啟動(dòng)下一個(gè)千億參數(shù)模型的訓(xùn)練?!傲阋蝗f(wàn)物的數(shù)據(jù)處理管線、算法研究、實(shí)驗(yàn)平臺(tái)、GPU 資源和 AI Infra 都已經(jīng)準(zhǔn)備好,我們的動(dòng)作會(huì)越來(lái)越快”。

深研“規(guī)?;?xùn)練實(shí)驗(yàn)平臺(tái)”,從“粗放煉丹”進(jìn)階到 “科學(xué)訓(xùn)?!?/strong>

耀眼成績(jī)的取得,源于零一萬(wàn)物潛心數(shù)月練就的大模型 “科學(xué)訓(xùn)?!狈椒ㄕ?。

眾所周知,大模型效果依賴于更多、更高質(zhì)量的數(shù)據(jù),零一萬(wàn)物在數(shù)據(jù)處理管線上可謂“不惜成本”。由前Google大數(shù)據(jù)和知識(shí)圖譜專家領(lǐng)銜的數(shù)據(jù)團(tuán)隊(duì),憑對(duì)數(shù)據(jù)的深度理解與認(rèn)知,結(jié)合大量數(shù)據(jù)處理實(shí)驗(yàn),建設(shè)了高效、自動(dòng)、可評(píng)價(jià)、可擴(kuò)展的智能數(shù)據(jù)處理管線。

不僅如此,經(jīng)過(guò)幾個(gè)月大量的建模和實(shí)驗(yàn),零一萬(wàn)物自研出一套“規(guī)?;?xùn)練實(shí)驗(yàn)平臺(tái)”,用來(lái)指導(dǎo)模型的設(shè)計(jì)和優(yōu)化。數(shù)據(jù)配比、超參搜索、模型結(jié)構(gòu)實(shí)驗(yàn)都可以在小規(guī)模實(shí)驗(yàn)平臺(tái)上進(jìn)行,對(duì)34B模型每個(gè)節(jié)點(diǎn)的預(yù)測(cè)誤差都可以控制在0.5%以內(nèi)。掌握了更強(qiáng)的模型預(yù)測(cè)能力,從而大大減少了進(jìn)行對(duì)比實(shí)驗(yàn)需要的資源,也減少了訓(xùn)練誤差對(duì)于計(jì)算資源的浪費(fèi)。

數(shù)據(jù)處理管線和加大規(guī)模預(yù)測(cè)的訓(xùn)練能力建設(shè),把以往的大模型訓(xùn)練碰運(yùn)氣的“煉丹”過(guò)程變得極度細(xì)致和科學(xué)化,不僅保證了目前發(fā)布Yi-34B、Yi-6B模型的高性能,也為未來(lái)更大規(guī)模模型的訓(xùn)練壓縮了時(shí)間和成本,有能力以領(lǐng)先于行業(yè)的速度,將模型規(guī)?!敖z滑”擴(kuò)大到數(shù)倍。

零一萬(wàn)物團(tuán)隊(duì)首度亮相,臥虎藏龍齊聚行業(yè)巨頭人才

零一萬(wàn)物的團(tuán)隊(duì)臥虎藏龍,成員來(lái)自Google、微軟、阿里巴巴、百度、字節(jié)跳動(dòng)、騰訊等國(guó)內(nèi)外頂級(jí)企業(yè)背景,并持續(xù)延攬全球范圍內(nèi)最優(yōu)秀的華人AI精英。

零一萬(wàn)物算法和模型團(tuán)隊(duì)成員,有論文曾被GPT-4引用的算法大拿,有獲得過(guò)微軟內(nèi)部研究大獎(jiǎng)的優(yōu)秀研究員,曾獲得過(guò)阿里CEO特別獎(jiǎng)的超級(jí)工程師??傆?jì)在ICLR、NeurIPS、CVPR、ICCV等知名學(xué)術(shù)會(huì)議上發(fā)表過(guò)大模型相關(guān)學(xué)術(shù)論文100余篇。

零一萬(wàn)物技術(shù)副總裁及AI Alignment負(fù)責(zé)人是 Google Bard/Assistant 早期核心成員,主導(dǎo)或參與了從 Bert、LaMDA 到大模型在多輪對(duì)話、個(gè)人助理、AI Agent 等多個(gè)方向的研究和工程落地;首席架構(gòu)師曾在Google Brain與Jeff Dean、Samy Bengio等合作,為T(mén)ensorFlow的核心創(chuàng)始成員之一。

首次發(fā)布的背后主力戰(zhàn)將,零一萬(wàn)物技術(shù)副總裁及 Pretrain 負(fù)責(zé)人黃文灝是通用人工智能 AGI 的信仰者,他曾先后任職于微軟亞洲研究院和智源研究院。 在微軟從事AI Agent研究工作時(shí),得到微軟創(chuàng)始人比爾?蓋茨和CEO 薩提亞?納德拉的高度贊揚(yáng)。

而支持 Yi 模型訓(xùn)練保障交付的零一萬(wàn)物技術(shù)副總裁及AI Infra負(fù)責(zé)人戴宗宏,是前華為云 AI CTO 及技術(shù)創(chuàng)新部長(zhǎng)、前阿里達(dá)摩院 AI Infra 總監(jiān)。Infra核心團(tuán)隊(duì)主要來(lái)自于阿里、華為、微軟、商湯,是AI 多領(lǐng)域具有高水平研究及系統(tǒng)研發(fā)能力的頂尖專家,曾經(jīng)參與支持了4個(gè)千億參數(shù)大模型規(guī)?;?xùn)練,管理過(guò)數(shù)萬(wàn)張GPU卡,夯實(shí)了端到端的全棧AI技術(shù)能力,零一萬(wàn)物可說(shuō)是具備一支行業(yè)內(nèi)少有的 AI Infra “技術(shù)天團(tuán)”。

打造更多ToC Super App,培育新型“AI-first”創(chuàng)新生態(tài)

零一萬(wàn)物認(rèn)為,34B的模型尺寸在開(kāi)源社區(qū)屬于稀缺的“黃金比例”尺寸。相比目前開(kāi)源社區(qū)主流的7B、13B等尺寸,34B模型具備更優(yōu)越的知識(shí)容量、下游任務(wù)的容納能力和多模態(tài)能力,也達(dá)到了大模型 “涌現(xiàn)”的門(mén)檻。

在精度上,不少開(kāi)發(fā)者都表示7B、13B開(kāi)源模型在很多場(chǎng)景下無(wú)法滿足需求,追求更好的性能需要使用30B以上的模型,但一直沒(méi)有合適的選擇,高質(zhì)量的Yi-34B的出現(xiàn),順利解決了開(kāi)源社群這一剛性需求。

而比起更大的 50B至70B,34B是單卡推理可接受的模型尺寸的上限,訓(xùn)練成本對(duì)開(kāi)發(fā)者更友好,經(jīng)過(guò)量化的模型可以在一張消費(fèi)級(jí)顯卡(如4090)上進(jìn)行高效率的推理,對(duì)開(kāi)發(fā)者操作服務(wù)部署有很大的優(yōu)勢(shì)。

接下來(lái),零一萬(wàn)物將基于Yi系列大模型,打造更多To C超級(jí)應(yīng)用。李開(kāi)復(fù)強(qiáng)調(diào),“AI 2.0是有史以來(lái)最大的科技革命,它帶來(lái)的改變世界的最大機(jī)會(huì)一定是平臺(tái)和技術(shù),正如PC時(shí)代的微軟Office,移動(dòng)互聯(lián)網(wǎng)時(shí)代的微信、抖音、美團(tuán)一樣,商業(yè)化爆發(fā)式增長(zhǎng)概率最高的一定是ToC應(yīng)用。零一萬(wàn)物邀請(qǐng)開(kāi)發(fā)者社群跟我們一起搭建Yi開(kāi)源模型的應(yīng)用生態(tài)系,協(xié)力打造AI 2.0時(shí)代的超級(jí)應(yīng)用?!?/p>

目前,Yi系列模型已在 Hugging Face、ModelScope、GitHub 三大全球開(kāi)源社區(qū)平臺(tái)正式上線,同時(shí)開(kāi)放商用申請(qǐng),給開(kāi)發(fā)者在使用LLM的過(guò)程中提供更多、更優(yōu)質(zhì)的選擇。

本次開(kāi)源的基座模型包括200K上下文窗口的基座模型,基座模型進(jìn)行了比較均衡的IQ和EQ的配置,保留了后續(xù)進(jìn)行不同方向微調(diào)的可能性。為了能讓語(yǔ)言模型有更好的應(yīng)用效果,廣大開(kāi)發(fā)者可以基于基座模型進(jìn)行微調(diào),GitHub 01Yi 開(kāi)源網(wǎng)頁(yè)上已經(jīng)提供了簡(jiǎn)單的微調(diào)代碼,同時(shí)模型和主流語(yǔ)言模型微調(diào)框架兼容,開(kāi)發(fā)者可以自行進(jìn)行適配。

接下來(lái),零一萬(wàn)物還將基于Yi 基座模型,快節(jié)奏開(kāi)源發(fā)布一系列的量化版本、對(duì)話模型、數(shù)學(xué)模型、代碼模型和多模態(tài)模型等,邀請(qǐng)開(kāi)發(fā)者積極投入,共同促進(jìn)語(yǔ)言模型開(kāi)源社區(qū)的繁榮發(fā)展,培育新型“AI-first”創(chuàng)新生態(tài)體系。

希望有更多的開(kāi)發(fā)者使用Yi系列模型,打造自己場(chǎng)景中的“ChatGPT”,引領(lǐng)下一代前沿創(chuàng)新和商業(yè)模型,探索走向通用人工智能的先進(jìn)能力。

(免責(zé)聲明:本網(wǎng)站內(nèi)容主要來(lái)自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請(qǐng)進(jìn)一步核實(shí),并對(duì)任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對(duì)有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。
任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁(yè)或鏈接內(nèi)容可能涉嫌侵犯其知識(shí)產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書(shū)面權(quán)利通知或不實(shí)情況說(shuō)明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會(huì)依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開(kāi)相關(guān)鏈接。 )

贊助商
2023-11-06
李開(kāi)復(fù)創(chuàng)辦的零一萬(wàn)物發(fā)布大模型Yi-34B 奪下全球開(kāi)源評(píng)測(cè)“雙料冠軍”
11月6日消息,李開(kāi)復(fù)博士帶隊(duì)創(chuàng)辦的AI 2.0公司零一萬(wàn)物,正式開(kāi)源發(fā)布首款預(yù)訓(xùn)練大模型 Yi-34B。

長(zhǎng)按掃碼 閱讀全文