Meta 开【kāi】源【yuán】 AI 语言模型 MusicGen,可将文本和旋【xuán】律转化为完整【zhěng】乐曲【qǔ】

2024-9-22 14:12:13来源:品玩


【资料图】

品【pǐn】玩 6 月 12 日【rì】讯,Meta 近日在 Github 上开源了其 AI 语言模【mó】型【xíng】 MusicGen,该模型基于谷歌【gē】 2017 年【nián】推出【chū】的 Transformer 模型。如同模型名称所示,MusicGen 主要用于【yú】音乐【lè】生成【chéng】,它可以将文本和【hé】已有的旋律转化为完整乐【lè】曲。

研【yán】发【fā】团队表示:" 我们使用了【le】 20000 小时的【de】授权音乐来对训练该模【mó】型,并采用 Meta 的 EnCodec 编码器将【jiāng】音频数据分解为【wéi】更小【xiǎo】的【de】单元进行【háng】并行处理,进而让 MusicGen 的【de】运算【suàn】效率和生成速度都比同【tóng】类型 AI 模型更为出色。"

除此之外,MusicGen 还支持文本与旋律的组合输入,例如你可以提出生成 " 一【yī】首轻快的【de】曲目 " 并同时要求【qiú】 " 将它与贝多芬【fēn】的《欢【huān】乐颂》结合起来 "。

研【yán】发团队【duì】还对【duì】 MusicGen 的实际表现进行了测试。结果显【xiǎn】示【shì】,与谷歌的 MusicLM 以及 Riffusion、Mousai、Noise2Music 等其他【tā】音乐【lè】模型相比【bǐ】,MusicGen 在测试音乐与【yǔ】文本提示的匹配度以及作曲的可信度等指标上表现更好,总【zǒng】体【tǐ】而【ér】言【yán】略高于谷歌 MusicLM 的水平。

最新资讯

股票软件