[PYTHON] Vorhersage des Nikkei-Durchschnitts mit Pytorch ~ Makuma ~

Es ist lange her.

Ich fühlte mich überhaupt nicht motiviert, weil meine Unterkünfte entlassen wurden, mein Teilzeitjob entlassen wurde und ich wegen des Einflusses von Corona so süchtig nach Mahjong war, aber ich beschloss, es nach langer Zeit als Memorandum zu aktualisieren. Hat.

Nachdem ich verschiedene Dinge angesprochen hatte, kam ich zu dem Schluss, dass der im vorherigen Artikel Vorhersage des Nikkei-Durchschnitts mit Pytorch geschriebene Code nicht so gut ist. Also habe ich einen Artikel gemacht.

Referenz, zitierter Artikel

Es ist fast das gleiche wie im vorherigen Artikel. Ich habe zusätzlich auf Folgendes hingewiesen.

Ich habe die FX-Vorhersage mit LSTM versucht

[Python] Aktienkursprognose von LSTM [Chainer]

Wenn Sie nicht genügend Daten haben, können Sie diese erhöhen.

Using Deep Learning Neural Networks and Candlestick Chart Representation to Predict Stock Market

Affinity Loss ist eine Geschichte, in der versucht wird, mit CIFAR-10 Genauigkeit zu erreichen

Probleme und Überlegungen

Aus dem obigen Artikel geht hervor, dass die Vorhersage mit LSTM ziemlich ungenau ist. Es werden Diagramme aufgezeichnet, die von der Prognose und der tatsächlichen Aktienkursprognose abweichen.

Wenn ich im Internet suche, sehe ich Artikel wie diesen, aber in vielen Fällen habe ich keine Lust dazu. Es gibt keine Basis. Es ist sinnlich. Ist es wirklich Wissenschaft?

Und ich gehe davon aus, dass der Zeitpunkt um 3% steigen wird, was das Ziel im vorherigen Artikel Prognose des Nikkei-Durchschnitts mit Pytorch war. Ich hatte jedoch das Gefühl, dass dies aufgrund des Ungleichgewichts der Daten schwerwiegend war.

+ 3% Wand

Ich hatte es mit Nikkei-Durchschnittsdaten mit ungefähr 4300 Daten (für 20 Jahre) zu tun, aber es gab keine Verzerrung in den Daten bei einem Verhältnis von 1: 1 allein in Bezug auf die Ober- und Unterseite. Wenn jedoch die Bedingung der Anstiegs- / Abnahmerate + 3% hinzugefügt wird, wird das Verhältnis von Anstieg zu Abfall um etwa 1:10 verzerrt. In diesem Fall wird erwartet, dass alle Modelle sinken, und es gibt keine Erwartung oder Enttäuschung.

Dies wird auch im Artikel Deep Learning Stock Price Forecast Model_1 mit 67% Genauigkeit erwähnt. Datenerweiterung (dieser Artikel, Wenn Sie nicht genügend Daten haben, können Sie diese erhöhen. Es wurde geschrieben, dass es von (verwiesen) gelöscht wurde.

DataAugmentation

Damit. Da die Anzahl der Daten nur 4300 beträgt, haben wir ein Upsampling durchgeführt. Mit anderen Worten, wir haben die Daten erhöht. Da es sich um Zeitreihendaten handelt, wurde es wie das Bild als CSV-Datei verwaltet. Von hier aus besteht der Ablauf darin, 20 Tage (20 Zeilen) mit LSTM zu lesen und sie lernen zu lassen. スクリーンショット 2020-09-07 6.39.16.png

Beim Upsampling werden beim Hinzufügen von Daten die kleineren (in diesem Fall die Daten und die Beschriftung, die ansteigen) addiert. Daher werden diejenigen, von denen erwartet wird, dass sie zunehmen, um die Anzahl der Daten 1: 1 zu erreichen, in einer Reihe von fast 4000 Zeilen hinzugefügt.

In diesem Fall lernte ich alle 20 Zeilen und dachte, dass die Daten in den letzten 4000 Zeilen völlig unzuverlässig wären (eigentlich konnte ich sie nicht richtig vorhersagen). Zu diesem Zeitpunkt gab ich die Verwendung der Datenerweiterung für Zeitreihendaten auf, weil ich dachte, dass dies problematisch wäre.

Vorhersage mit Bildern

Zu dieser Zeit erinnerte ich mich daran, dass es der Bildklassifizierungswettbewerb mit AlexNet war, der beim Deep Learning auffiel. Also dachte ich über die Vorhersage anhand des Bildes nach.

Wenn Sie nur die binäre Klassifizierung von Steigen und Fallen erraten, scheint die Vorhersage im Bild stolz auf die hohe Genauigkeit zu sein. Verwenden von Deep Learning-Neuronalen Netzen und Candlestick-Chart-Darstellung zur Vorhersage des Aktienmarkts In diesem Artikel beträgt die Genauigkeit beim Lesen des Aktienkurses aus dem Chart 97% SOTA. ... anscheinend ...

Der Code in diesem Artikel befand sich auf dem Git-Hub, daher habe ich beschlossen, ihn zu verwenden und vorwegzunehmen.

Lösung des Problems des Datenungleichgewichts

Wenn es sich um Bilddaten handelt, dachte ich, dass das Datenungleichgewicht durch Datenerweiterung behoben werden könnte. In jüngerer Zeit scheint es, dass Fernunterricht integriert werden kann, um ein unausgewogeneres Lernen von Daten zu ermöglichen.

Affinity Loss ist eine Geschichte, in der versucht wird, mit CIFAR-10 Genauigkeit zu erreichen

Ich wusste nicht, ob der obige Artikel mithilfe von Zeitreihendaten auf LSTM angewendet werden kann, deshalb habe ich beschlossen, mit Bildern zu studieren.

Nächster Artikel

In diesem Sinne codieren wir derzeit. Bleib dran. Nächster Artikel Nikkei Average Prediction 2 mit Pytorch

Recommended Posts

Vorhersage des Nikkei-Durchschnitts mit Pytorch ~ Makuma ~
Vorhersage des Nikkei-Durchschnitts mit Pytorch 2
Vorhersage des Nikkei-Durchschnitts mit Pytorch
Vorhersage der Sinuswelle mit Keras
Sinuswellenvorhersage (Rückkehr) mit Pytorch
4/22 Vorhersage der Sinuswelle mit Keras
Multi-Class Multi-Label-Klassifizierung von Bildern mit Pytorch
Spiele mit PyTorch
Kreuzvalidierung mit PyTorch
Beginnend mit PyTorch
Die Geschichte des Versuchs, Tensorboard mit Pytorch zu verwenden
Verwenden Sie RTX 3090 mit PyTorch
[PyTorch] Ein wenig Verständnis von CrossEntropyLoss mit mathematischen Formeln
Zusammenfassung der Probleme bei der semantischen Segmentierung mit Pytorch
Vorbereiten der Ausführungsumgebung von PyTorch mit Docker November 2019
Installieren Sie Fackelstreuung mit PyTorch 1.7
Speichern Sie die Ausgabe von GAN nacheinander ~ Mit der Implementierung von GAN durch PyTorch ~
[PyTorch] Bildklassifizierung von CIFAR-10
Versuchen Sie, XOR mit PyTorch zu implementieren
Implementieren Sie PyTorch + GPU mit Docker
Parallele Verarbeitung mit Parallel von Scikit-Learn
Maschinelles Lernen Minesweeper mit PyTorch
PyTorch mit AWS Lambda [Lambda-Import]
Erinnerungen an den Kampf mit Selen
Schaben Nikkei Durchschnitt mit Dramatiker-Python
Führen Sie mit PyTorch eine geschichtete Aufteilung durch
Ich habe Word2Vec mit Pytorch gemacht
Wahrscheinlichkeitsvorhersage von unausgeglichenen Daten