进入音乐行业的主要障碍是制作成本。 即使艺术家筹集了资金,寻找音乐制作人和工作室来满足他们的需求也是极具挑战性的。 那么,如果您可以告诉您的计算机制作您设想的节拍呢? 借助 Google 的 MusicLM 模型,从文本生成音乐可能成为现实。
另外:最好的 AI 艺术生成器:DALL-E 2 和替代品
上周,谷歌发布了一篇学术论文,讨论了其 MusicLM 生成 AI 模型,该模型根据用户的文本提示制作音乐。 该模型可以制作从 10 秒音频剪辑到完整歌曲的任何内容,使用您提供的尽可能多的具体细节。 它还可以将现有歌曲制作成不同的声音。
另外:Meta 的首席人工智能科学家表示,人工智能已经引起了科技行业研发的复兴
根据该论文,AI 模型的提示可以包括详细的命令,例如“带有令人难忘的萨克斯管独奏和独奏歌手的迷人爵士乐”或“具有低音和强劲底鼓的柏林 90 年代技术”。 要查看其所有不同提示和功能的示例,您可以单击此处。
该论文称,为了创作音乐,该系统在 280,000 小时的未标记音乐数据集上进行了训练,该数据集教会 MusicLM 以 25 kHz 的频率生成长而连贯的音乐。
这不是谷歌或业界首次尝试人工智能歌曲系统。 ChatGPT 和 DALL-E 背后的人工智能研究公司 OpenAI 有自己的版本 JukeBox,尚未向公众发布。 Riffusion 是一种使用声音图像制作音乐的神经网络,现已向公众开放。
但根据谷歌的说法,它的新系统比以前做过的任何系统都要好:“我们的实验通过定量指标和人工评估表明,MusicLM 在质量和对字幕的遵守方面都优于以前的系统,如 Mubert 和 Riffusion。”
那么,我们什么时候才能使用这个“比现有任何东西都好”的人工智能模型呢? 不幸的是,答案是不会很快。