華為云MetaStudio全新升級,盤古數(shù)字人大模型助力數(shù)字人自由

7月7日,華為開發(fā)者大會2023 ( Cloud ) 在東莞拉開帷幕?;诒P古大模型能力,華為云MetaStudio數(shù)字內(nèi)容生產(chǎn)線全新升級,推出數(shù)字人模型生成服務和模型驅(qū)動服務,旨在通過數(shù)字人服務和技術(shù)賦能,賦能千行百業(yè)提升數(shù)字內(nèi)容創(chuàng)作體驗和效率。

AIGC正在重構(gòu)數(shù)字內(nèi)容生產(chǎn)模式,重新定義內(nèi)容力

當前,數(shù)字人逐漸成為3D互聯(lián)網(wǎng)時代各類應用的核心入口,進入千行百業(yè)。大家常見的數(shù)字人抖音直播,營業(yè)廳的數(shù)字人客服,還有各類綜藝節(jié)目如湖南臺《你好星期六》節(jié)目的綜藝虛擬主持人小漾等等,多種場景應用層出不窮,新形象不斷呈現(xiàn)。

在數(shù)字內(nèi)容產(chǎn)業(yè),內(nèi)容力決定了企業(yè)的競爭力,它由生產(chǎn)力、創(chuàng)造力和知識力逐步疊加和演進而成。PGC時代,頭部電影中有90%的內(nèi)容是通過計算機來生成的。生產(chǎn)力,也就是算力的強度決定了內(nèi)容力;UGC時代,超過90%的數(shù)字內(nèi)容由個人用戶產(chǎn)生,創(chuàng)作者來自于千行百業(yè)。在生產(chǎn)力基礎(chǔ)上,增加了創(chuàng)造力,也就是行業(yè)的廣度,共同決定內(nèi)容力;當前,我們已經(jīng)進入AI時代,AIGC正在重構(gòu)數(shù)字內(nèi)容生產(chǎn)模式。到2030年,90%的內(nèi)容將通過AI產(chǎn)生。在生產(chǎn)力和創(chuàng)造力的基礎(chǔ)上,進一步增加了知識力,也就是模型的深度,共同決定內(nèi)容力。

人人都需要自己獨一無二的個性化的數(shù)字人

華為云MetaStudio數(shù)字內(nèi)容生產(chǎn)線,基于華為云盤古基礎(chǔ)大模型能力、渲染引擎和實時音視頻能力,使用PB級的音視頻數(shù)據(jù)進行訓練,構(gòu)建了數(shù)字人通用大模型,包括數(shù)字人形象、動作、表情、口型、聲音等;每個用戶還可以結(jié)合個人數(shù)據(jù)進行訓練,構(gòu)建自己的數(shù)字人個性化大模型。數(shù)字人生成后,用戶通過文字、語音、視頻等方式生產(chǎn)驅(qū)動向量信息,從而驅(qū)動數(shù)字人生成高清視頻。

通過發(fā)布現(xiàn)場的演示我們可以看到,用戶可通過多種方式生成數(shù)字人模型:

輸入文字生成數(shù)字人:輸入文本,描述希望生成的數(shù)字人樣子,10秒生成模型。比如通過Prompt文本輸入,目前支持可選50多項參數(shù)來生成數(shù)字人形象,生成時間僅需10秒,而行業(yè)的一些大模型需要30秒或者更長的時間。

也可以上傳圖片生成數(shù)字人:只需要上傳一張照片,根據(jù)照片中的個人特征,生成不同類型的數(shù)字人,比如風格化和美型數(shù)字人,這個時間僅需30秒。

或者用戶只需要拍攝一段5分鐘的視頻,也能生成個性化數(shù)字人模型,包含用戶自己的表情、口型、動作特征,整個模型訓練過程只需要1個小時。而業(yè)界一般需要訓練12個小時以上。基于個性化模型生成的數(shù)字人,將保留用戶的個性化形象、表情、動作、聲音和口型信息。生成數(shù)字人后,可以通過對話完成對數(shù)字人的二次編輯和背景融合,比如發(fā)型、配飾、服裝等,真正做到每個人的數(shù)字人都獨一無二。

多模態(tài)數(shù)字人模型驅(qū)動,數(shù)字人在各行業(yè)多場景中應用

數(shù)字人生成后,預訓練模型對輸入的驅(qū)動方式進行分析,從多模態(tài)信息中通過深度編碼器提取特征向量信息,驅(qū)動生成數(shù)字人的表情、口型、肢體動作參數(shù),并最終生成高清視頻。

驅(qū)動的方式也有多種,文字驅(qū)動可基于識別文字的語義和情感,實現(xiàn)數(shù)字人動作和文字的精準匹配。通過多語言泛化技術(shù),一種語言、一次訓練,即可使用多種語言驅(qū)動數(shù)字人。除此之外,現(xiàn)在業(yè)界大部分數(shù)字人都是站在固定點講解,無法支持移動,華為云通過2D視頻,以及2D/3D數(shù)據(jù)的聯(lián)合訓練,實現(xiàn)數(shù)字人走動、側(cè)身、手勢的精確驅(qū)動。

多模態(tài)的數(shù)字人實時驅(qū)動服務,可以廣泛應用到各種各樣的行業(yè)場景,比如直播、在線教育、在線客服、線上會議等。例如會議場景,通常我們默認都是關(guān)閉視頻入會,一是大多數(shù)人長時間面對鏡頭感覺不自然、二是在辦公室公共環(huán)境、酒店、家里等場合涉及隱私,不愿意打開攝像頭,三是在運動的時候不方便打開攝像頭。這種情況下,可以通過自己的數(shù)字人加入會議,展現(xiàn)形象的同時又保護了隱私,不再只顯示簡單的姓名信息,實現(xiàn)有溫度的交互體驗。會議過程會通過攝像頭進行驗證,確保是本人參會。實時驅(qū)動的時延在100ms以內(nèi),就跟我們現(xiàn)在開視頻會議一樣,沒有明顯延遲感覺。可以說,華為云MetaStudio數(shù)字人服務重塑了云會議的體驗。

同樣的,數(shù)字人在其他行業(yè)應用也可以一樣簡單、快速的集成數(shù)字人實時通信與互動能力,實現(xiàn)有溫度的交互體驗。華為云MetaStudio數(shù)字內(nèi)容生產(chǎn)線全新升級,通過盤古大模型的賦能,讓數(shù)字人具備個性化外形和靈魂,每個人都擁有個性化的數(shù)字人。

(免責聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關(guān)資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負任何法律責任。
任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )