Я использую LSTM для создания пьес в стиле Баха. До сих пор мне удавалось использовать только мелодические последовательности одного голоса, т. Е. Я могу сгенерировать одну мелодическую строку с помощью фиксированная продолжительность для каждой ноты.
Теперь я пытаюсь смоделировать четыре голоса из некоторых хоралов Баха а также длительность нот (см. Миди «Хоралы» внизу http://www.bachcentral.com/midiindexcomplete.html).
Проблема в том, что в какой-то момент мой LSTM перестает учиться. Вот моя архитектура:
Для каждого голоса я извлекаю последовательность из L нот в качестве входных данных и следующую ноту в качестве выходных. Затем я проделываю то же самое с длительностью нот. Так что я:
voice0_x = sequence of notes, sequence of duration
voice0_y = next note, next duration
voice1_x = ... the same
voice1_y = ... the same
Тогда код nnet выглядит так:
input_notes = Input(shape=(notes_in.shape[1], notes_in.shape[2]))
note_out = LSTM(256, return_sequences=True)(input_notes)
input_durations = Input(shape=(durations_in.shape[1], durations_in.shape[2]))
duration_out = LSTM(256, return_sequences=True)(input_durations)
merge = concatenate([note_out, duration_out])
merge = Flatten()(merge)
merge = Dense(512, activation='relu')(merge)
merge = Dropout(0.3)(merge)
note_final = Dense(notes_out.shape[1], activation='softmax')(merge)
duration_final = Dense(durations_out.shape[1], activation='softmax')(merge)
model = Model(inputs=[input_notes, input_durations], outputs=[note_final, duration_final])
model.compile(loss=['categorical_crossentropy', 'categorical_crossentropy'], optimizer = 'rmsprop')
Итак, я просто скармливаю ноты и последовательности длительностей для разделения LSTM, объединяю их выходные данные и отправляю все на плотный слой. Сеть явно обучается, но потери перестают уменьшаться на отметке ~ 12,35:
loss: 12.3549 - dense_2_loss: 6.3240 dense_3_loss: 6.0309
Я безуспешно пытался увеличить количество ячеек LSTM. Учитывая, что мелодические линии каждого голоса связаны друг с другом (то же самое касается продолжительности), правильная ли это архитектура? Стоит ли еще увеличить количество ячеек?
Чтобы быть немного более ясным, предположим, что моя цель - «переобучить» входные данные, поэтому теоретически сеть должна сходиться к небольшому значению потерь, но этого не происходит.
Спасибо за помощь, при необходимости я могу предоставить более подробную информацию.
Это не вариант, это занимает слишком много времени.
Если сеть, кажется, обучается, но застревает на минимуме, вы можете попробовать использовать параметры clipnorm или clipvalue, предоставляемые с оптимизатор. Еще одна вещь, которую вы можете попробовать, - это использовать слой BatchNorm и включить параметры отсева с помощью LSTM.
@kvish Хорошо, я разберусь, спасибо!
Вы пробовали использовать поиск по сетке sklearn с различными гиперпараметрами LSTM? Это может дать вам ключ к разгадке.