Ich habe ein neuronales Netzwerk für die Musikgenerierung mit meinem eigenen MIDI-Parser und LSTM erstellt. Vor kurzem gab es ein Projekt wie Magenta und es scheint das n-te Gebräu zu sein, aber als ich die Stichprobenmethode aus der Ausgangswahrscheinlichkeitsverteilung modifizierte, wurde ein wenig interessantes Ergebnis erzielt. Ich habe es bekommen, damit ich es teilen kann.
Demo (* Beachten Sie die Lautstärke für die sofortige Wiedergabe) Repository
LSTM Es ist eine Art neuronales Netzwerk, das den Kontext sequentieller Daten lernen kann. Für Details überlasse ich es den vielen guten Artikeln. Das Folgende ist detailliert.
MIDI(SMF) Es ist ein Format, in dem Leistungsdaten als eine Folge von Blöcken mit Tonhöhe, Lautstärke, Zeitinformationen usw. ausgedrückt werden. Verwenden Sie (einen Teil) dieser Sequenz als Eingabe für das LSTM.
Als ich versuchte, Elemente mit einer geringen Wahrscheinlichkeit des Auftretens bei einer bestimmten Frequenz auszugeben, wurde ein Lied mit einem leicht arrangierten Original-Lied erzeugt.
Der selbst erstellte MIDI-Parser ist derzeit recht einfach, und es gibt Blöcke und Informationen, die nicht verarbeitet wurden. Wenn Sie also etwas mehr machen, verbessert sich die Qualität der Ausgabe.
Recommended Posts