和声2
神经网络音乐生成
利用最先进的
NLP
模型来生成人类发声的音乐
该项目是由加州大学伯克利分校的
John
Canny
教授主持的
CS282-设计和可视化神经网络课程的一部分。
目标
我们调查了以下研究问题:“我们如何构建一个模型来生成离散标记序列,这些标记不仅可以模拟短期模式,还可以模拟长期模式。”
我们将结合音乐生成进行这项研究——节奏和旋律是短期模式,形式和结构是我们将尝试建模的长期模式。
背景
关于人工音乐生成的挑战已经有广泛的研究。
最近的方法包括
LSTM
和双
STM
架构
[1],SeqGAN
架构,它训练生成对抗网络以通过策略梯度
[2]
或
GAN
[3]
生成结构化序列。
然而,最新的进展来自
OpenAI,并利用了
NLP
深度学习模型的最新突破。
他们使用的是变压器的改进版本,称为音乐变压器。
该模型使用注意力机制:每个输出元素都连接到每个输入元素,并且它们之间的权重是动态计算的。
它没有明确地通过对音乐的理解进行编程,但它可以通过学习预测标记(以结合音高、音量和乐器信息的方式编码的音符)来发现和声、节奏和风格的模式。
MIDI
文件。
有关更多信息
2021-07-01 17:04:21
65.57MB
系统开源
1