Es ist lange her.
Ich fühlte mich überhaupt nicht motiviert, weil meine Unterkünfte entlassen wurden, mein Teilzeitjob entlassen wurde und ich wegen des Einflusses von Corona so süchtig nach Mahjong war, aber ich beschloss, es nach langer Zeit als Memorandum zu aktualisieren. Hat.
Nachdem ich verschiedene Dinge angesprochen hatte, kam ich zu dem Schluss, dass der im vorherigen Artikel Vorhersage des Nikkei-Durchschnitts mit Pytorch geschriebene Code nicht so gut ist. Also habe ich einen Artikel gemacht.
Es ist fast das gleiche wie im vorherigen Artikel. Ich habe zusätzlich auf Folgendes hingewiesen.
Ich habe die FX-Vorhersage mit LSTM versucht
[Python] Aktienkursprognose von LSTM [Chainer]
Wenn Sie nicht genügend Daten haben, können Sie diese erhöhen.
Using Deep Learning Neural Networks and Candlestick Chart Representation to Predict Stock Market
Affinity Loss ist eine Geschichte, in der versucht wird, mit CIFAR-10 Genauigkeit zu erreichen
Aus dem obigen Artikel geht hervor, dass die Vorhersage mit LSTM ziemlich ungenau ist. Es werden Diagramme aufgezeichnet, die von der Prognose und der tatsächlichen Aktienkursprognose abweichen.
Wenn ich im Internet suche, sehe ich Artikel wie diesen, aber in vielen Fällen habe ich keine Lust dazu. Es gibt keine Basis. Es ist sinnlich. Ist es wirklich Wissenschaft?
Und ich gehe davon aus, dass der Zeitpunkt um 3% steigen wird, was das Ziel im vorherigen Artikel Prognose des Nikkei-Durchschnitts mit Pytorch war. Ich hatte jedoch das Gefühl, dass dies aufgrund des Ungleichgewichts der Daten schwerwiegend war.
Ich hatte es mit Nikkei-Durchschnittsdaten mit ungefähr 4300 Daten (für 20 Jahre) zu tun, aber es gab keine Verzerrung in den Daten bei einem Verhältnis von 1: 1 allein in Bezug auf die Ober- und Unterseite. Wenn jedoch die Bedingung der Anstiegs- / Abnahmerate + 3% hinzugefügt wird, wird das Verhältnis von Anstieg zu Abfall um etwa 1:10 verzerrt. In diesem Fall wird erwartet, dass alle Modelle sinken, und es gibt keine Erwartung oder Enttäuschung.
Dies wird auch im Artikel Deep Learning Stock Price Forecast Model_1 mit 67% Genauigkeit erwähnt. Datenerweiterung (dieser Artikel, Wenn Sie nicht genügend Daten haben, können Sie diese erhöhen. Es wurde geschrieben, dass es von (verwiesen) gelöscht wurde.
DataAugmentation
Damit. Da die Anzahl der Daten nur 4300 beträgt, haben wir ein Upsampling durchgeführt. Mit anderen Worten, wir haben die Daten erhöht. Da es sich um Zeitreihendaten handelt, wurde es wie das Bild als CSV-Datei verwaltet. Von hier aus besteht der Ablauf darin, 20 Tage (20 Zeilen) mit LSTM zu lesen und sie lernen zu lassen.
Beim Upsampling werden beim Hinzufügen von Daten die kleineren (in diesem Fall die Daten und die Beschriftung, die ansteigen) addiert. Daher werden diejenigen, von denen erwartet wird, dass sie zunehmen, um die Anzahl der Daten 1: 1 zu erreichen, in einer Reihe von fast 4000 Zeilen hinzugefügt.
In diesem Fall lernte ich alle 20 Zeilen und dachte, dass die Daten in den letzten 4000 Zeilen völlig unzuverlässig wären (eigentlich konnte ich sie nicht richtig vorhersagen). Zu diesem Zeitpunkt gab ich die Verwendung der Datenerweiterung für Zeitreihendaten auf, weil ich dachte, dass dies problematisch wäre.
Zu dieser Zeit erinnerte ich mich daran, dass es der Bildklassifizierungswettbewerb mit AlexNet war, der beim Deep Learning auffiel. Also dachte ich über die Vorhersage anhand des Bildes nach.
Wenn Sie nur die binäre Klassifizierung von Steigen und Fallen erraten, scheint die Vorhersage im Bild stolz auf die hohe Genauigkeit zu sein. Verwenden von Deep Learning-Neuronalen Netzen und Candlestick-Chart-Darstellung zur Vorhersage des Aktienmarkts In diesem Artikel beträgt die Genauigkeit beim Lesen des Aktienkurses aus dem Chart 97% SOTA. ... anscheinend ...
Der Code in diesem Artikel befand sich auf dem Git-Hub, daher habe ich beschlossen, ihn zu verwenden und vorwegzunehmen.
Wenn es sich um Bilddaten handelt, dachte ich, dass das Datenungleichgewicht durch Datenerweiterung behoben werden könnte. In jüngerer Zeit scheint es, dass Fernunterricht integriert werden kann, um ein unausgewogeneres Lernen von Daten zu ermöglichen.
Affinity Loss ist eine Geschichte, in der versucht wird, mit CIFAR-10 Genauigkeit zu erreichen
Ich wusste nicht, ob der obige Artikel mithilfe von Zeitreihendaten auf LSTM angewendet werden kann, deshalb habe ich beschlossen, mit Bildern zu studieren.
In diesem Sinne codieren wir derzeit. Bleib dran. Nächster Artikel Nikkei Average Prediction 2 mit Pytorch
Recommended Posts