騰訊發(fā)布混元大模型Turbo版本 用AI助力場景創(chuàng)新

大模型落地持續(xù)加速中。

9月5日,騰訊宣布推出新一代大模型“混元Turbo”,相比前代模型,騰訊混元Turbo性能顯著提升,訓(xùn)練效率提升108%,推理效率提升 100%,推理成本降低 50%,效果在多個基準測試上對標(biāo)GPT-4o,且第三方測評居國內(nèi)第一。

目前,混元Turbo已經(jīng)在騰訊云上線,輸入和輸出價格只有前代模型的一半。企業(yè)和開發(fā)者可以通過API、專屬模型、精調(diào)模型等方式使用混元大模型相關(guān)能力。

騰訊集團高級執(zhí)行副總裁、云與智慧產(chǎn)業(yè)事業(yè)群CEO湯道生表示,隨著大模型與生成式AI的技術(shù)突破,圖片、視頻、語言的理解與生成已經(jīng)有很大進步,人與人的溝通、人與系統(tǒng)的交互方式,都可能會被重塑。最近半年,產(chǎn)業(yè)界對AI大模型的關(guān)注重點,開始從模型技術(shù)本身,轉(zhuǎn)到智能應(yīng)用落地上。用人工智能在已有業(yè)務(wù)場景中降本增效,提高經(jīng)營效率,是行穩(wěn)致遠的可靠路徑。

騰訊集團高級執(zhí)行副總裁、云與智慧產(chǎn)業(yè)事業(yè)群CEO湯道生

據(jù)介紹,騰訊已經(jīng)構(gòu)建起了全鏈路的大模型產(chǎn)品矩陣,包括底層基礎(chǔ)設(shè)施、幫助企業(yè)訓(xùn)練專屬模型的TI平臺和行業(yè)大模型解決方案,自研的混元大模型,構(gòu)建應(yīng)用的平臺工具,以及基于大模型的各類智能應(yīng)用。

會上,騰訊AI應(yīng)用“元寶”宣布品牌智能體專區(qū)正式上線,企業(yè)在騰訊元器上制作的智能體可以一鍵發(fā)布到品牌智能體專區(qū)。品牌智能體專區(qū)首批邀請 11 家合作伙伴入駐,打造精品AI智能體應(yīng)用生態(tài),涵蓋工作提效和生活娛樂多個場景,用戶可以直接在“騰訊元寶”APP上體驗豐富的品牌智能體應(yīng)用。

“面向場景創(chuàng)造價值才是大模型發(fā)展的意義。”騰訊云副總裁、騰訊云智能負責(zé)人、優(yōu)圖實驗室負責(zé)人吳運聲表示,大模型已經(jīng)在全球發(fā)展了兩年,一方面,模型性能不斷提升,圍繞著模型的產(chǎn)品使用門檻變得更低、更加易用;另一方面,企業(yè)積極探索大模型與自身業(yè)務(wù)場景的結(jié)合,大模型的落地場景變得更豐富、更縱深。

騰訊云副總裁、騰訊云智能負責(zé)人、優(yōu)圖實驗室負責(zé)人吳運聲

吳運聲介紹,基于全矩陣的大模型產(chǎn)品,騰訊已經(jīng)服務(wù)了眾多客戶,在知識管理、智能客服、研發(fā)提效、智能營銷、內(nèi)容生成、辦公協(xié)同、風(fēng)險管控等場景中,幫助企業(yè)實現(xiàn)了降本增效和業(yè)務(wù)創(chuàng)新。

大模型工具持續(xù)升級,更便捷、更易用

為了讓企業(yè)更快更便捷地開發(fā)AI原生應(yīng)用,騰訊云在今年5月推出了三款PaaS產(chǎn)品知識引擎、圖像創(chuàng)作引擎和視頻創(chuàng)作引擎,加速應(yīng)用落地。

通過大模型知識引擎,企業(yè)用自然語言和簡單配置,5分鐘就可以開發(fā)出一款大語言模型應(yīng)用,服務(wù)于客服營銷、企業(yè)知識社區(qū)等業(yè)務(wù)場景。經(jīng)過幾個月的產(chǎn)品迭代,知識引擎產(chǎn)品在用戶需求識別與理解、企業(yè)知識處理、檢索和理解能力上,都有很大升級。同時,知識引擎支持組件能力單獨輸出,企業(yè)可以按需購買文檔解析、文檔拆分、向量化等能力,按需部署到自身的應(yīng)用中去。

在圖像創(chuàng)作引擎層面,基于混元生圖能力的升級,圖像風(fēng)格化、AI寫真、商品背景生成、模特換裝等功能也進一步實現(xiàn)了迭代。在AI寫真層面,圖像創(chuàng)作引擎實現(xiàn)了免訓(xùn)練技術(shù)突破,輸入一張照片后可直接跳過訓(xùn)練環(huán)節(jié)等待,一鍵生成高清寫真藝術(shù)照,整體出圖耗時縮短75%。

針對很多電商商家高頻使用的商品背景生成能力,圖像創(chuàng)作引擎可實現(xiàn)商品在不同場景中高度逼真的虛擬效果展示。在模特換裝場景下,采用3D先驗方案,提升重建人像效果,在高度保持模特臉部、手部細節(jié)的同時,精確將服裝版型細節(jié)與模特身體特征對齊,確保換裝后的效果逼真自然。

基于混元的DiT架構(gòu)模型,視頻創(chuàng)作引擎也迎來了全新的升級。新增了圖片跳舞、圖片唱演和視頻轉(zhuǎn)譯等能力,已經(jīng)實現(xiàn)了單段舞蹈的生成時間從10分鐘下降至1分鐘級別,同時支持轉(zhuǎn)身、側(cè)身等難度舞蹈動作。同時,針對很多客戶有需求的視頻轉(zhuǎn)譯能力,視頻引擎接入了混元文生文大模型和 TTS 技術(shù),讓轉(zhuǎn)譯后的視頻能夠保留說話人的音色特征,同時實現(xiàn)說話人口型與目標(biāo)語種一致的視聽效果。目前視頻轉(zhuǎn)譯功能支持超過15種小語種,覆蓋主流外語翻譯,可應(yīng)用于視頻本地化、跨境電商等場景。

為了幫助企業(yè)用戶更便捷地打造專屬模型,人工智能開發(fā)平臺TI平臺也進行了全新升級。

TI平臺致力于構(gòu)建面向?qū)崙?zhàn)的大模型精調(diào)工具鏈,幫助用戶訓(xùn)練出真正可用的大模型,并縮短模型開發(fā)周期,提升研發(fā)效率與資源利用率。

高質(zhì)量的訓(xùn)練數(shù)據(jù)是精調(diào)出一個可落地大模型的前提條件。TI 平臺的多模態(tài)數(shù)據(jù)集管理和數(shù)據(jù)標(biāo)注能力,可提升大模型精調(diào)的數(shù)據(jù)準備效率和訓(xùn)練數(shù)據(jù)質(zhì)量,從而提升大模型訓(xùn)練效率和最終效果。

在精調(diào)數(shù)據(jù)準備層面,TI平臺全新支持面向多模態(tài)大模型的數(shù)據(jù)集管理和數(shù)據(jù)標(biāo)注,首創(chuàng)了基于Schema的標(biāo)注方法,支持用戶自動生成個性化標(biāo)注工作臺,支持文生文、圖生文、圖文改寫、圖文混合問答等主流場景下的全部細分任務(wù)類型。

落地加速,場景創(chuàng)新更豐富、更縱深

大模型要貼近場景創(chuàng)造價值已經(jīng)是業(yè)界的共識。騰訊目前已經(jīng)有700多款產(chǎn)品接入混元大模型,實現(xiàn)用戶體驗的提升。騰訊全矩陣的大模型產(chǎn)品目前已經(jīng)在知識管理、智能客服、研發(fā)提效、智能營銷、內(nèi)容生成、辦公協(xié)同、風(fēng)險管控等落地。

在智能客服與知識管理場景中,基于大模型的生成能力,可以顯著提升復(fù)雜問題的解決效率,提升回答質(zhì)量。長安汽車與騰訊利用大模型知識引擎,整合汽車使用手冊等資料,有效解決了客戶在車輛使用和維護中的疑問,顯著提升了客戶服務(wù)體驗。

在智能營銷場景,大模型可以提升廣告素材的生產(chǎn)效率,增強營銷活動的趣味性和互動性。比如蒙牛集團利用圖生圖技術(shù),將用戶上傳的全家福轉(zhuǎn)化生成為特制的卡通畫風(fēng),助力會員拉新、提升用戶活躍。

在內(nèi)容創(chuàng)意場景,大模型可以讓內(nèi)容生產(chǎn)的周期大幅縮短,提供更多的創(chuàng)意玩法。比如,人民日報、新華社等媒體結(jié)合混元的文生視頻能力進行視頻創(chuàng)作。過去,視頻內(nèi)容需要一幀幀進行設(shè)計和制作,制作周期短則數(shù)天,長則數(shù)月?,F(xiàn)在借助視頻生成能力,只需一段文字或者幾張圖片,就能在幾分鐘內(nèi)生成優(yōu)質(zhì)視頻內(nèi)容。

在研發(fā)提效領(lǐng)域,騰訊利用TI平臺等工具,幫助易車、閱文等企業(yè)搭建自己的大模型,顯著降低了模型構(gòu)建的時間和成本;另一方面,通過騰訊云AI代碼助手等工具,輔助開發(fā)者提升研發(fā)的效率,幫助企業(yè)提升整體研發(fā)效能。

在辦公協(xié)同場景中,騰訊旗下的企業(yè)微信、騰訊會議、騰訊文檔都已經(jīng)接入了混元大模型。在大模型的助力下,企業(yè)微信可對英文郵件進行智能檢查,輔助英文郵件糾錯,騰訊會議可以自動總結(jié)會議紀要,騰訊文檔能夠自動生成各類文檔。

在風(fēng)險管控領(lǐng)域,風(fēng)控大模型可以解決傳統(tǒng)風(fēng)控中建模時間長、效率低的難題。通過打包豐富的反欺詐知識,實現(xiàn)“小樣本”訓(xùn)練遷移,快速構(gòu)建契合業(yè)務(wù)需求的風(fēng)控模型體系。比如,東風(fēng)日產(chǎn)汽車金融,基于少量提示樣本遷移,就完成了適配自身業(yè)務(wù)場景的風(fēng)控模型定制。相比于傳統(tǒng)的建模方式,模型KS性能提升超過20%,在跨場景的泛化性測試上性能提升53%。

(免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關(guān)資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責(zé)。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負任何法律責(zé)任。
任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )