[PYTHON] Ich habe die gängige Geschichte der Vorhersage des Nikkei-Durchschnitts mithilfe von Deep Learning (Backtest) ausprobiert.

Geschichte verändern

** 14.08.2016: Das Ergebnis wurde hinzugefügt, wenn die Signale der drei Methoden synthetisiert wurden. ** **. ** 14.08.2016: Gewinnrate hinzugefügt. ** **.

Überblick

Letztes Mal (Ich habe versucht, Deep Nik zu verwenden, um den Nikkei-Durchschnitt vorherzusagen) waren die Renditen der Nikkei-Durchschnittsaktien am Vortag Ich habe versucht, den Anstieg und Fall des durchschnittlichen Aktienkurses von Nikkei am nächsten Tag anhand vorherzusagen. Dieses Mal handelt es sich vorerst um einen Operationstest, daher habe ich versucht zu simulieren, was passieren würde, wenn es tatsächlich mit der vorhergesagten Rendite betrieben würde.

Discramer

Wie bereits erwähnt, bin ich nicht verantwortlich für Schäden, die durch den tatsächlichen Betrieb mit dieser Methode verursacht wurden.

Betriebsannahmen

Ursprünglich ist es notwendig, die Gebühr, die Zeit, die gekauft und verkauft werden kann, den Umsatz usw. zu berücksichtigen, aber diesmal ist es einfach, "eine Vorhersage zum Schlusskurs des Vortages zu treffen, eine Kauf- und Verkaufsentscheidung für einen Moment und einen Moment für den Nikkei-Durchschnitt zu treffen." Es ist eine sehr unrealistische Annahme, dass Sie kaufen oder verkaufen können. (Nun, liegt es nicht daran, dass die Berechnung mühsam ist?)

Die Zusammenfassung ist wie folgt.

Letztes Ergebnis

Das vorherige Ergebnis war wie folgt. Ich habe drei Methoden ausprobiert: Random Forest, Multilayer Perceptron (MLP) und Convolution Neural Network (CNN).

Kobito.B8RCPa.png

Kobito.8YIHGQ.png

Kobito.VOx3BE.png

Aus AUC-Sicht lautet die Reihenfolge CNN> MLP> RF.

Operativer Backtest

Die Backtest-Periode ist täglich von 2008 bis spätestens. Der erste ist 1000 und jeder ist indiziert. (Linke Achse) Es zeigt auch den Unterschied zum Nikkei-Durchschnittsindex. (Rechte Achse)

RF-Simulationsergebnisse

RF運用.png

MLP-Simulationsergebnisse

MLP運用.png

CNN-Simulationsergebnisse

CNN運用.png

Vergleich von drei Methoden

三手法.png

Ergebnisse synthetischer Signale von CNN, MLP, RF (hinzugefügt am 14.08.2016)

CNN ist die beste Modellleistung, also lassen Sie uns RF und MLP um dieses herum synthetisieren. Als bedingter Ausdruck

signal = (CNN-Signal) & (HF-Signal|MLP-Signal)

Es fühlt sich an wie. Mit anderen Worten, nur wenn Sie sagen, dass der CNN steigt und eines der beiden anderen Modelle steigt, entscheiden Sie, dass das endgültige Signal steigt.

合成.png

Verschiedene Statistiken (hinzugefügt am 14. August 2016)

RF MLP CNN Synthetik Nikkei
Jährliche Rendite(%) 5.6% 8.1% 9.2% 11.7% 1.5%
Jährliche Standardabweichung(%) 20.1% 20.5% 19.9% 18.6% 27.2%
Risikorendite 0.277 0.395 0.461 0.628 0.054
Kumulative Gewinnrate 54% 55% 54% 56% 52%

Das Ergebnis ist Synthese> CNN> MLP> RF (in Bezug auf Risiko / Rendite). Selbst wenn der Nikkei-Durchschnitt Long Hold ist, handelt es sich um einen Gewinn von 52%. Es scheint also, dass der Anstieg und Abfall in diesem Zeitraum etwas näher am Aufwärtstrend liegt. Unter diesen sind jedoch alle Methoden dem überlegen, und 56% für die Synthese sind eine ziemlich gute Zahl.

Zusammenfassung

Recommended Posts

Ich habe die gängige Geschichte der Vorhersage des Nikkei-Durchschnitts mithilfe von Deep Learning (Backtest) ausprobiert.
Ich habe die übliche Geschichte ausprobiert, Deep Learning zu verwenden, um den Nikkei-Durchschnitt vorherzusagen
Die Geschichte des tiefen Lernens mit TPU
Ich habe versucht, tief zu lernen
Ich habe versucht, die Phase der Geschichte mit COTOHA zu extrahieren und zu veranschaulichen
Ich habe versucht, den Bildfilter von OpenCV zu verwenden
Ich habe versucht, das Objekterkennungs-Tutorial mit dem neuesten Deep-Learning-Algorithmus auszuführen
Ich habe versucht, die API von Sakenowa Data Project zu verwenden
Ich habe versucht, das Bild mithilfe von maschinellem Lernen zu komprimieren
Ich habe versucht, das Lachproblem mit Keras zu erkennen.
Ich habe versucht, ein Deep-Learning-Modell von TensorFlow mit TensorFlow Serving zu hosten
[TF] Ich habe versucht, das Lernergebnis mit Tensorboard zu visualisieren
[Maschinelles Lernen] Ich habe versucht, die Theorie von Adaboost zusammenzufassen
[Python] Ich habe versucht, Daten mit der API von Wikipedia zu sammeln
Ich habe versucht, die Genauigkeit von Modellen für maschinelles Lernen mit Kaggle als Thema zu vergleichen.
Ich habe versucht, GrabCut von OpenCV zu verwenden
Ich habe versucht, mit PyBrain verstärkt zu lernen
Ich habe versucht, die checkio-API zu verwenden
[Pokemon-Schwertschild] Ich habe versucht, die Urteilsgrundlage des tiefen Lernens anhand der Drei-Familien-Klassifikation als Beispiel zu visualisieren
Ich habe versucht, den Index der Liste mithilfe der Aufzählungsfunktion abzurufen
Ich habe mir die Metainformationen von BigQuery angesehen und versucht, sie zu verwenden
[Erkennung von Anomalien] Versuchen Sie es mit der neuesten Methode des Fernunterrichts
Ich habe versucht, den allgemeinen Zustand der VTuber-Kanalbetrachter zu visualisieren
Othello-Aus der dritten Zeile von "Implementation Deep Learning" (3)
[Kaggle] Ich habe versucht, Ensemble mit LightGBM zu lernen
Visualisieren Sie die Auswirkungen von Deep Learning / Regularisierung
Othello-Aus der dritten Zeile von "Implementation Deep Learning" (2)
Ich habe versucht, die BigQuery-Speicher-API zu verwenden
Ich habe versucht, das Gesichtsbild mit sparse_image_warp von TensorFlow Addons zu transformieren
Ich habe SIGNATE "[Übungsfrage] Vorhersage der Anzahl der Leihfahrradnutzer" ausprobiert.
Ich habe versucht, die Trefferergebnisse von Hachinai mithilfe der Bildverarbeitung zu erhalten
Ich habe versucht, die Vorhersage-API des maschinellen Lernmodells von WordPress aus aufzurufen
zoom Ich habe versucht, den Grad der Aufregung der Geschichte auf der Konferenz zu quantifizieren
Ich habe versucht, die Ähnlichkeit der Frageabsicht mit Doc2Vec von gensim abzuschätzen
Ich habe versucht, Pytorchs Deep-Learning-Modell mit TorchServe auf Amazon SageMaker zu hosten
Mit COTOHA habe ich versucht, den emotionalen Verlauf des Laufens von Meros zu verfolgen.
Ich habe versucht, die Verschlechterung des Lithium-Ionen-Akkus mithilfe des Qore SDK vorherzusagen
Ich habe versucht, das Update von "Hameln" mit "Beautiful Soup" und "IFTTT" zu benachrichtigen.
Ich habe versucht, die Wetterkarte einer Clusteranalyse zu unterziehen
Die Geschichte, dass die Lernkosten von Python niedrig sind
Ein Amateur versuchte Deep Learning mit Caffe (Einführung)
vprof - Ich habe versucht, den Profiler für Python zu verwenden
[Python] Ich habe versucht, das Mitgliederbild der Idolgruppe mithilfe von Keras zu beurteilen
Ein Amateur versuchte Deep Learning mit Caffe (Übung)
[Python] Deep Learning: Ich habe versucht, Deep Learning (DBN, SDA) ohne Verwendung einer Bibliothek zu implementieren.
Ich habe versucht, PyCaret mit der schnellsten Geschwindigkeit zu verwenden
Ich habe versucht, die Google Cloud Vision-API zu verwenden
Ich habe versucht, die Trapezform des Bildes zu korrigieren
Ich habe versucht, das Vorhandensein oder Nichtvorhandensein von Schnee durch maschinelles Lernen vorherzusagen.
Ich habe versucht, die Lernfunktion im neuronalen Netzwerk sorgfältig zu verstehen, ohne die Bibliothek für maschinelles Lernen zu verwenden (erste Hälfte).
Die Geschichte von soracom_exporter (Ich habe versucht, SORACOM Air mit Prometheus zu überwachen)
Ich habe versucht, die funktionale Programmierbibliothek toolz zu verwenden
Ich habe versucht, die Texte von Hinatazaka 46 zu vektorisieren!
Ich habe versucht, den Sieg oder die Niederlage der Premier League mit dem Qore SDK vorherzusagen
Ich habe versucht, das Update von "Werde ein Romanautor" mit "IFTTT" und "Werde ein Romanautor API" zu benachrichtigen.
Python-Übung 100 Schläge Ich habe versucht, den Entscheidungsbaum von Kapitel 5 mit graphviz zu visualisieren