近年來(lái),大模型發(fā)展在人工智能領(lǐng)域引起了廣泛的興趣與關(guān)注,龐大的規(guī)模和學(xué)習(xí)能力使其具備了出色的性能和表現(xiàn)。近日,IDEA研究院(粵港澳大灣區(qū)數(shù)字經(jīng)濟(jì)研究院)宣布開源通用大模型系列“姜子牙”,讓廣大開發(fā)者可以共同參與模型的改進(jìn)、優(yōu)化和拓展,通過(guò)分享經(jīng)驗(yàn)和創(chuàng)意,推動(dòng)模型的進(jìn)步和創(chuàng)新。與IDEA建立合作,UCloud優(yōu)刻得鏡像市場(chǎng)也上線了姜子牙大模型鏡像,基于UCloud優(yōu)刻得強(qiáng)大的云計(jì)算基礎(chǔ)設(shè)施,客戶可以輕松創(chuàng)建預(yù)裝姜子牙大模型的云主機(jī),并享受高性能的GPU算力資源。
“姜子牙通用大模型v1”是由IDEA開發(fā)的一款領(lǐng)先的自然語(yǔ)言處理模型?;贚LaMa的130億參數(shù)的大規(guī)模預(yù)訓(xùn)練模型,具備翻譯、編程、文本分類、信息抽取、摘要、文案生成、常識(shí)問(wèn)答和數(shù)學(xué)計(jì)算等能力。目前姜子牙通用大模型v1已完成大規(guī)模預(yù)訓(xùn)練、多任務(wù)有監(jiān)督微調(diào)和人類反饋學(xué)習(xí)三階段的訓(xùn)練過(guò)程。
本次UCloud優(yōu)刻得上線的是姜子牙大模型的Ziya-LLaMA-7B-Reward模型鏡像。該模型基于Ziya-LLaMA模型,在自標(biāo)注高質(zhì)量偏好排序數(shù)據(jù)、嚴(yán)格過(guò)濾的外部開源數(shù)據(jù)這兩個(gè)偏好排序數(shù)據(jù)上進(jìn)行訓(xùn)練。同時(shí)該模型能夠模擬中英雙語(yǔ)生成的獎(jiǎng)勵(lì)環(huán)境,對(duì)LLM生成結(jié)果提供準(zhǔn)確的獎(jiǎng)勵(lì)反饋。
作為最新一代發(fā)布的大語(yǔ)言模型,“姜子牙通用大模型v1”具備以下三個(gè)方面的優(yōu)勢(shì):
1、全面的數(shù)據(jù)訓(xùn)練:使用來(lái)自多個(gè)領(lǐng)域和多種來(lái)源的原始數(shù)據(jù)進(jìn)行預(yù)訓(xùn)練,包括英文和中文數(shù)據(jù)。通過(guò)去重、打分、分桶、規(guī)則過(guò)濾和數(shù)據(jù)評(píng)估等處理,最終得到125B tokens的有效數(shù)據(jù)。這種全面的數(shù)據(jù)訓(xùn)練使得模型具備廣泛的語(yǔ)言知識(shí)和理解能力。
2、高效的中文編解碼:通過(guò)擴(kuò)充詞表、優(yōu)化分詞方式,提升了對(duì)中文的編解碼效率。通過(guò)增加常見中文字并復(fù)用Transformers中的LlamaTokenizer,實(shí)現(xiàn)了高效的中文處理能力。
3、多任務(wù)有監(jiān)督微調(diào)和人類反饋訓(xùn)練:在多任務(wù)有監(jiān)督微調(diào)階段采用課程學(xué)習(xí)和增量訓(xùn)練的策略,通過(guò)"Easy To Hard"的方式進(jìn)行訓(xùn)練。同時(shí),通過(guò)人類反饋訓(xùn)練進(jìn)一步提升模型的綜合表現(xiàn)。人類反饋訓(xùn)練采用了以人類反饋強(qiáng)化學(xué)習(xí)為主的方法,結(jié)合多種其他手段聯(lián)合訓(xùn)練,包括人類反饋微調(diào)、后見鏈微調(diào)、AI反饋和基于規(guī)則的獎(jiǎng)勵(lì)系統(tǒng)等。這些訓(xùn)練方法使得模型能夠更好地理解人類意圖、減少錯(cuò)誤輸出,并提高整體性能。
這些優(yōu)勢(shì)使得姜子牙大模型成為一款強(qiáng)大的自然語(yǔ)言處理模型,不僅在語(yǔ)言知識(shí)和理解能力方面有出色表現(xiàn),可以高效處理中文,并且經(jīng)過(guò)多任務(wù)有監(jiān)督微調(diào)和人類反饋訓(xùn)練,可進(jìn)一步提升性能和準(zhǔn)確性,尤其在角色扮演的領(lǐng)域,表現(xiàn)效果尤為突出。
圖片來(lái)源:https://huggingface.co/IDEA-CCNL/Ziya-LLaMA-13B-v1
寫在最后
作為開源模型,姜子牙大模型鼓勵(lì)開發(fā)者和研究者之間的合作和共享,這使得更多的人可以通過(guò)領(lǐng)域知識(shí)微調(diào),共同改進(jìn)模型并推動(dòng)新模型的推出與發(fā)展,技術(shù)的本質(zhì)在于應(yīng)用,ChatLaw(法律大模型)應(yīng)用法律行業(yè),就是大模型落地垂直業(yè)務(wù)場(chǎng)景的極佳案例。
UCloud優(yōu)刻得將繼續(xù)與IDEA等優(yōu)秀合作伙伴密切合作,致力于完善大模型和算力相結(jié)合的MaaS(Model as a service)服務(wù)生態(tài),積極推進(jìn)人工智能技術(shù)的發(fā)展,為客戶提供更多高性能、高可靠性的“算力+模型”解決方案,助力企業(yè)實(shí)現(xiàn)智能化轉(zhuǎn)型和業(yè)務(wù)創(chuàng)新,一起迎接大模型時(shí)代的機(jī)遇和挑戰(zhàn)!
(免責(zé)聲明:本網(wǎng)站內(nèi)容主要來(lái)自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請(qǐng)進(jìn)一步核實(shí),并對(duì)任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對(duì)有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。
任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁(yè)或鏈接內(nèi)容可能涉嫌侵犯其知識(shí)產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書面權(quán)利通知或不實(shí)情況說(shuō)明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會(huì)依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )