Meta開(kāi)源生成式AI工具 AudioCraft


【資料圖】

美國(guó)東部時(shí)間8月2日,Meta公司開(kāi)源了一款名為AudioCraft的生成式AI工具,該工具能夠幫助用戶(hù)通過(guò)文本提示創(chuàng)作音樂(lè)和音頻。 據(jù)Meta公司介紹,AudioCraft主要包含三個(gè)核心組件。首先是MusicGen,它使用Meta公司擁有或特別授權(quán)的音樂(lè)進(jìn)行訓(xùn)練,根據(jù)文本提示生成音樂(lè)。其次是AudioGen,它使用公共音效進(jìn)行訓(xùn)練生成音頻或擴(kuò)展現(xiàn)有音頻,未來(lái)還可以生成環(huán)境音效,如狗叫、汽車(chē)?guó)Q笛、木地板上的腳步聲等。最后是改進(jìn)版的EnCodec,這是一個(gè)基于神經(jīng)網(wǎng)絡(luò)的音頻壓縮解碼器,能夠生成更高質(zhì)量的音樂(lè)并減少人工痕跡,或?qū)σ纛l文件進(jìn)行無(wú)損壓縮。 開(kāi)源后的AudioCraft工具,相關(guān)研究人員和從業(yè)人員可以使用自己的數(shù)據(jù)集訓(xùn)練模型。Meta公司宣稱(chēng),AudioCraft系列模型能夠長(zhǎng)期穩(wěn)定地生成高質(zhì)量音頻,而且易于使用,能夠?yàn)橐魳?lè)家和聲音設(shè)計(jì)師提供靈感,幫助他們快速集思廣益,并以新的方式迭代他們的作品。 此外,今年6月份,Meta公司已經(jīng)開(kāi)源了AI語(yǔ)言模型MusicGen。該模型基于2017年谷歌推出的Transformer模型,主要用于音樂(lè)生成,能夠?qū)⑽谋竞鸵延械男赊D(zhuǎn)化為完整樂(lè)曲。

關(guān)鍵詞:

資訊

圖賞