Meta開(kāi)源AI語(yǔ)言模型MusicGen,可將文本和旋律轉(zhuǎn)化為完整樂(lè)曲

6月12日消息,Meta 近日在 Github 上開(kāi)源了其 AI 語(yǔ)言模型 MusicGen,該模型基于谷歌 2017 年推出的 Transformer 模型。MusicGen 主要用于音樂(lè)生成,它可以將文本和已有的旋律轉(zhuǎn)化為完整樂(lè)曲。

據(jù)IT之家報(bào)道,研發(fā)團(tuán)隊(duì)表示:“我們使用了 2 萬(wàn)小時(shí)的授權(quán)音樂(lè)來(lái)對(duì)訓(xùn)練該模型,并采用 Meta 的 EnCodec 編碼器將音頻數(shù)據(jù)分解為更小的單元進(jìn)行并行處理,進(jìn)而讓 MusicGen 的運(yùn)算效率和生成速度都比同類型 AI 模型更為出色。”

除此之外,MusicGen 還支持文本與旋律的組合輸入,例如你可以提出生成“一首輕快的曲目”并同時(shí)要求“將它與貝多芬的《歡樂(lè)頌》結(jié)合起來(lái)”。

研發(fā)團(tuán)隊(duì)還對(duì) MusicGen 的實(shí)際表現(xiàn)進(jìn)行了測(cè)試。結(jié)果顯示,與谷歌的 MusicLM 以及 Riffusion、Mousai、Noise2Music 等其他音樂(lè)模型相比,MusicGen 在測(cè)試音樂(lè)與文本提示的匹配度以及作曲的可信度等指標(biāo)上表現(xiàn)更好,總體而言略高于谷歌 MusicLM 的水平。

極客網(wǎng)企業(yè)會(huì)員

免責(zé)聲明:本網(wǎng)站內(nèi)容主要來(lái)自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請(qǐng)進(jìn)一步核實(shí),并對(duì)任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對(duì)有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁(yè)或鏈接內(nèi)容可能涉嫌侵犯其知識(shí)產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書(shū)面權(quán)利通知或不實(shí)情況說(shuō)明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會(huì)依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開(kāi)相關(guān)鏈接。

2023-06-12
Meta開(kāi)源AI語(yǔ)言模型MusicGen,可將文本和旋律轉(zhuǎn)化為完整樂(lè)曲
基于谷歌 2017 年推出的 Transformer 模型。

長(zhǎng)按掃碼 閱讀全文