打造专属BGM,​Python 深度学习教你

2021-04-21 14:49:28 浏览数 (1)

作者 | 李秋键

出品 | AI科技大本营(ID:rgznai100)

引言:

“那些听不到音乐的人,以为跳舞的人疯了。” 尼采这句话好有趣,也告诉我们音乐对于日常生活的不可或缺之处。但是对于一般人来说,想要精通各种乐器难度较高。故今天我们来实践一个普通人可以制作的音乐项目,用深度学习的方法让计算机自动生成自己需要的音乐。完整代码见文末。

其中生成的效果如下可见:

模型建立

1.1 环境要求

本次环境使用的是python3.6.5 windows平台,主要用的库有:

Argparse库是python自带的命令行参数解析包,可以用来方便地读取命令行参数;

glob获取本地文件,在这里用来快速获取训练数据集;

Pickle用在机器学习中,可以把训练好的模型存储起来,这样在进行决策时直接将模型读出,而不需要重新训练模型,这样就大大节约了时间。它可以序列化对象并保存到磁盘中,并在需要的时候读取出来,任何对象都可以执行序列化操作。

Keras库是一个高层神经网络API,Keras由纯Python编写而成并基Tensorflow、Theano以及CNTK后端。Keras的核心数据结构是“模型”,模型是一种组织网络层的方式。Keras中主要的模型是Sequential模型,Sequential是一系列网络层按顺序构成的栈。在这里我们用它来建立BLSTM模型

1.2 数据集处理

本项目使用了音乐文件是midi文件,因为它们易于解析和学习使用midi文件给我们带来了很多好处,因为我们可以轻松地检测到音符的音高和持续时间。在本次项目中,时间步长和序列长度是网络的两个重要因素。时间步长决定了我们分析和产生每个音符的时间,而序列长度决定了我们如何学习歌曲中的模式。设定0.25秒的时间步长和每个时间步长8个音符。这对应于4/4的拍号,对我们来说意味着8个不同的序列,共4个音符。通过学习这些序列并重复它们,我们可以生成听起来像实际音乐的模式,并以此为基础进行构建。

音乐的重要组成部分是可变长度音符和休止符的动态和创造性使用。比如先是发出的长长的音符,然后是平静的停顿,可以在听我们听到演奏者的心灵倾泻而出的声音时,向听众发出一波情感。为了捕捉到这一点,引入长音符,短音符和休止符的方法,以便我们可以在整首歌曲中产生不同的情感。

(1)获取训练集所有的音符和和弦

代码语言:javascript复制
notes = []
for file in self.songs:
    print("Parsing %s" % file)
    try:
        midi = converter.parse(file)
    except IndexError as e:
        print(f"Could not parse {file}")
        print(e)
        continue
    notes_to_parse = None
    try:  
        s2 = instrument.partitionByInstrument(midi)
        notes_to_parse = s2.parts[0].recurse()
    except: 
        notes_to_parse = midi.flat.notes
    prev_offset = 0.0
    for element in notes_to_parse:
        if isinstance(element, note.Note) or isinstance(element, chord.Chord):
            duration = element.duration.quarterLength
            if isinstance(element, note.Note):
                name = element.pitch
            elif isinstance(element, chord.Chord):
                name = ".".join(str(n) for n in element.normalOrder)
            notes.append(f"{name}${duration}")
           rest_notes = int((element.offset - prev_offset) / TIMESTEP - 1)
            for _ in range(0, rest_notes):
                notes.append("NULL")
        prev_offset = element.offset
with open("notes/"   self.model_name, "wb") as filepath:
    pickle.dump(notes, filepath)

1.3 神经网络处理成序列

为了建立BLSTM网络,需要将数据处理成序列形式。

代码语言:javascript复制
def prepare_sequences(self, notes, n_vocab):
    # 获取所有pitch 名称
    pitchnames = sorted(set(item for item in notes))
    # 创建一个字典来映射音高到整数
    note_to_int = dict((note, number   1) for number, note in enumerate(pitchnames))
    note_to_int["NULL"] = 0
    network_input = []
    network_output = []
    for i in range(0, len(notes) - SEQUENCE_LEN, 1):
        sequence_in = notes[i : i   SEQUENCE_LEN]
        sequence_out = notes[i   SEQUENCE_LEN]
        network_input.append([note_to_int[char] for char in sequence_in])
        network_output.append(note_to_int[sequence_out])
    n_patterns = len(network_input)
    network_input = numpy.reshape(network_input, (n_patterns, SEQUENCE_LEN, 1))
    network_input = network_input / float(n_vocab)
    print(network_output)
    network_output = np_utils.to_categorical(network_output)
    return (network_input, network_output)

1.4 模型网络建立

通过在歌曲中某个特定位置建立之前和之后的音符,可以生成听起来与人类相似的旋律。通常,在听音乐时,之前发生的事情可以帮助听众预测接下来的音节。很多时候我一直在听一首歌,我可以随着特定的节奏跳动,因为我可以预测接下来会发生什么。这恰恰是在增加一首歌曲时发生的情况。比如这首歌变得越来越强烈,这使听众在预期落下时会产生紧张感,并在最终击打时产生那种放松和兴奋的时刻。通过利用这一点,我们能够产生听起来自然的节奏,并产生出我们已经习惯于现代音乐中期望的相同情感。

对于BLSTM层中的节点数,我们选择512。对于激活函数,我们选择softmax。对于损失函数,我们选择交叉熵,因为它们可以很好地解决诸如音符预测之类的多类分类问题。最后,我们选择RMSprop作为优化程序,这是Keras为RNN推荐的。

代码语言:javascript复制
def train(self, network_input, network_output):
        """ train the neural network """
        filepath = (
            self.model_name   "-weights-improvement-{epoch:02d}-{loss:.4f}-bigger.hdf5"
        )
        checkpoint = ModelCheckpoint(
            filepath, monitor="loss", verbose=0, save_best_only=True, mode="min"
        )
        callbacks_list = [checkpoint]
        self.model.fit(
            network_input,
            network_output,
            epochs=self.epochs,
            batch_size=64,
            callbacks=callbacks_list,
        )
def create_network(network_input, n_vocab):
    print("Input shape ", network_input.shape)
    print("Output shape ", n_vocab)
    """ create the structure of the neural network """
    model = Sequential()
    model.add(
        Bidirectional(
            LSTM(512, return_sequences=True),
            input_shape=(network_input.shape[1], network_input.shape[2]),
        )
    )
    model.add(Dropout(0.3))
    model.add(Bidirectional(LSTM(512)))
    model.add(Dense(n_vocab))
    model.add(Activation("softmax"))
    model.compile(loss="categorical_crossentropy", optimizer="rmsprop")
    return model

音乐生成

创作音乐最重要的部分之一就是结构。我们设定结构形式如下,我们从随机音符中生成了第一节音律,然后根据第一条音律生成了第二节音律。实际上,这将生成一个两倍的长度并将其分成两半的部分。这里的思考过程是,如果我们创作一首音乐,那么第二首音乐仍应符合相同的氛围,并且通过将第一首音乐作为参考,我们可以实现这一目标。

(1)根据音符序列从神经网络中生成音符

代码语言:javascript复制
def get_start():
    # pick a random sequence from the input as a starting point for the prediction
    start = numpy.random.randint(0, len(network_input) - 1)
    pattern = network_input[start]
    prediction_output = []
    return pattern, prediction_output
# generate verse 1
verse1_pattern, verse1_prediction_output = get_start()
for note_index in range(4 * SEQUENCE_LEN):
    prediction_input = numpy.reshape(
        verse1_pattern, (1, len(verse1_pattern), 1)
    )
    prediction_input = prediction_input / float(n_vocab)
    prediction = model.predict(prediction_input, verbose=0)
    index = numpy.argmax(prediction)
    print("index", index)
    result = int_to_note[index]
    verse1_prediction_output.append(result)
    verse1_pattern.append(index)
    verse1_pattern = verse1_pattern[1 : len(verse1_pattern)]
# generate verse 2
verse2_pattern = verse1_pattern
verse2_prediction_output = []
for note_index in range(4 * SEQUENCE_LEN):
    prediction_input = numpy.reshape(
        verse2_pattern, (1, len(verse2_pattern), 1)
    )
    prediction_input = prediction_input / float(n_vocab)
    prediction = model.predict(prediction_input, verbose=0)
    index = numpy.argmax(prediction)
    print("index", index)
    result = int_to_note[index]
    verse2_prediction_output.append(result)
    verse2_pattern.append(index)
    verse2_pattern = verse2_pattern[1 : len(verse2_pattern)]
# generate chorus
chorus_pattern, chorus_prediction_output = get_start()
for note_index in range(4 * SEQUENCE_LEN):
    prediction_input = numpy.reshape(
        chorus_pattern, (1, len(chorus_pattern), 1)
    )
    prediction_input = prediction_input / float(n_vocab)
    prediction = model.predict(prediction_input, verbose=0)
    index = numpy.argmax(prediction)
    print("index", index)
    result = int_to_note[index]
    chorus_prediction_output.append(result)
    chorus_pattern.append(index)
    chorus_pattern = chorus_pattern[1 : len(chorus_pattern)]
# generate bridge
bridge_pattern, bridge_prediction_output = get_start()
for note_index in range(4 * SEQUENCE_LEN):
    prediction_input = numpy.reshape(
        bridge_pattern, (1, len(bridge_pattern), 1)
    )
    prediction_input = prediction_input / float(n_vocab)
    prediction = model.predict(prediction_input, verbose=0)
    index = numpy.argmax(prediction)
    print("index", index)
    result = int_to_note[index]
    bridge_prediction_output.append(result)
    bridge_pattern.append(index)
    bridge_pattern = bridge_pattern[1 : len(bridge_pattern)]
return (
    verse1_prediction_output
      chorus_prediction_output
      verse2_prediction_output
      chorus_prediction_output
      bridge_prediction_output
      chorus_prediction_output
)

(2)将预测输出转换为notes,并从notes创建midi文件。根据模型生成的值创建note和chord对象。

代码语言:javascript复制
for pattern in prediction_output:
    if "$" in pattern:
        pattern, dur = pattern.split("$")
        if "/" in dur:
            a, b = dur.split("/")
            dur = float(a) / float(b)
        else:
            dur = float(dur)
    # pattern is a chord
    if ("." in pattern) or pattern.isdigit():
        notes_in_chord = pattern.split(".")
        notes = []
        for current_note in notes_in_chord:
            new_note = note.Note(int(current_note))
            new_note.storedInstrument = instrument.Piano()
            notes.append(new_note)
        new_chord = chord.Chord(notes)
        new_chord.offset = offset
        new_chord.duration = duration.Duration(dur)
        output_notes.append(new_chord)
    # pattern is a rest
    elif pattern is "NULL":
        offset  = TIMESTEP
    # pattern is a note
    else:
        new_note = note.Note(pattern)
        new_note.offset = offset
        new_note.storedInstrument = instrument.Piano()
        new_note.duration = duration.Duration(dur)
        output_notes.append(new_note)
    # 增加每次迭代的偏移量,这样笔记就不会堆积
    offset  = TIMESTEP
midi_stream = stream.Stream(output_notes)
output_file = os.path.basename(self.weights)   ".mid"
print("output to "   output_file)
midi_stream.write("midi", fp=output_file)

0 人点赞