[PYTHON] [Deep Learning von Grund auf neu] Methoden zur Aktualisierung der wichtigsten Parameter für neuronale Netze

Einführung

Dieser Artikel ist eine leicht verständliche Ausgabe von ** Deep Learning von Grund auf neu. Kapitel 7 Lerntechniken **. Ich konnte es selbst verstehen, also hoffe ich, dass Sie es bequem lesen können. Ich würde mich auch sehr freuen, wenn Sie sich beim Studium dieses Buches darauf beziehen könnten.

SGD SGD ist eine Methode zum Aktualisieren der Parameter durch Multiplizieren des Lernkoeffizienten und Subtrahieren von den aktuellen Parametern, nachdem der Gradient wie zuvor gefunden wurde. スクリーンショット 2019-11-13 15.30.35.png Diese Methode ist einfach und leicht zu implementieren, aber da die durch den Gradienten angegebene Richtung nicht die Richtung zum exakten Minimalwert ist, führt sie eine gezackte und ineffiziente Suche bis zum Punkt des Parameters durch, der der Minimalwert der Verlustfunktion ist. Ist eine Schwachstelle.

Momentum Eine Methode mit dem zusätzlichen Konzept der Geschwindigkeit. Der Parameter wird aktualisiert, indem die Geschwindigkeit ermittelt wird, mit der die Steigung von der Steigung zum Punkt mit dem Minimalwert der Verlustfunktion am aktuellen Punkt rollt, und zum Parameter hinzugefügt wird. スクリーンショット 2019-11-13 15.38.21.png スクリーンショット 2019-11-13 15.38.33.png Es führt eine Zickzack-Suche wie SGD durch, aber die Ineffizienz wird verringert, da der Zickzack verringert wird und die Suche im Vergleich zu SGD gerundet wird.

AdaGrad Zuerst wird der Lernkoeffizient erhöht und aktualisiert, und dann wird der Lernkoeffizient allmählich verringert und aktualisiert. ** Eine Methode, die die Technik des Zerfalls des Lernkoeffizienten verwendet **. Zunächst werden die Parameter stark aktualisiert, und dann werden die Parameteraktualisierungen schrittweise reduziert. スクリーンショット 2019-11-13 15.53.06.png スクリーンショット 2019-11-13 15.53.13.png Mit dieser Methode kann die Zick-Zack-Suche weiter reduziert und eine effiziente Suche durchgeführt werden.

Adam Eine neue Methode, die 2015 vorgeschlagen wurde und Momentum und AdaGrad kombiniert. Da es kompliziert ist, werde ich es hier nicht erklären, aber es ist möglich, sehr effizient zu suchen.

Die wichtigsten derzeit verwendeten Methoden sind einfache SGD und sehr effizienter, aber komplexer Adam.

Recommended Posts

[Deep Learning von Grund auf neu] Methoden zur Aktualisierung der wichtigsten Parameter für neuronale Netze
Deep Learning von Grund auf neu
Deep Learning von Grund auf neu 4.4.2 Gradient für neuronale Netze Die Frage nach der Funktion numerischer Gradient wurde gelöst.
Deep Learning von Grund auf 1-3 Kapitel
[Deep Learning von Grund auf neu] Beschleunigen des neuronalen Netzwerks Ich erklärte die Verarbeitung der Rückausbreitung
Erstellen Sie mit Docker eine Umgebung für "Deep Learning von Grund auf neu"
Tiefes Lernen von Grund auf neu (Kostenberechnung)
Deep Learning Memo von Grund auf neu gemacht
Lua-Version Deep Learning von Grund auf neu Teil 6 [Inferenzverarbeitung für neuronale Netze]
[Lernnotiz] Deep Learning von Grund auf neu gemacht [Kapitel 7]
Tiefes Lernen von Grund auf neu (Vorwärtsausbreitung)
Tiefes Lernen / Tiefes Lernen von Grund auf 2-Versuchen Sie, GRU zu bewegen
Deep Learning / Deep Learning von Grund auf neu Kapitel 6 Memo
[Lernnotiz] Deep Learning von Grund auf neu gemacht [Kapitel 5]
[Lernnotiz] Deep Learning von Grund auf neu gemacht [Kapitel 6]
"Deep Learning von Grund auf neu" mit Haskell (unvollendet)
Deep Learning / Deep Learning von Grund auf neu Kapitel 7 Memo
[Windows 10] Aufbau einer "Deep Learning from Scratch" -Umgebung
Lernbericht über das Lesen von "Deep Learning von Grund auf neu"
[Deep Learning von Grund auf neu] Über die Optimierung von Hyperparametern
"Deep Learning from Grund" Memo zum Selbststudium (Teil 12) Deep Learning
[Lernnotiz] Deep Learning von Grund auf neu gemacht [~ Kapitel 4]
Realisieren Sie mit Docker und Vagrant die Umgebungskonstruktion für "Deep Learning von Grund auf neu"
Selbststudien-Memo "Deep Learning from Grund" (unlesbares Glossar)
"Deep Learning from Grund" Memo zum Selbststudium (Nr. 9) MultiLayerNet-Klasse
Deep Learning von Grund auf neu ① Kapitel 6 "Lerntechniken"
GitHub des guten Buches "Deep Learning von Grund auf neu"
Deep Learning von Grund auf neu Kapitel 2 Perceptron (Memo lesen)
[Lernnotiz] Deep Learning von Grund auf ~ Implementierung von Dropout ~
Python vs Ruby "Deep Learning von Grund auf neu" Zusammenfassung
"Deep Learning from Grund" Memo zum Selbststudium (10) MultiLayerNet-Klasse
"Deep Learning from Grund" Memo zum Selbststudium (Nr. 11) CNN
Python vs Ruby "Deep Learning von Grund auf neu" Kapitel 3 Implementierung eines dreischichtigen neuronalen Netzwerks
Bereiten Sie die Umgebung für das O'Reilly-Buch "Deep Learning from Grund neu" mit apt-get vor (Debian 8).
[Für Anfänger] Was ist in Deep Learning von Grund auf neu geschrieben?
[Deep Learning von Grund auf neu] Anfangswert des Gewichts des neuronalen Netzwerks unter Verwendung der Sigmoid-Funktion
[Deep Learning von Grund auf neu] Ich habe die Affine-Ebene implementiert
"Deep Learning from Grund" Memo zum Selbststudium (Nr. 19) Datenerweiterung
Anwendung von Deep Learning 2 von Grund auf neu Spam-Filter
[Deep Learning] Führen Sie die neuronale SONY-Netzwerkkonsole über CUI aus
Lernmethode zum Lernen von maschinellem Lernen von Grund auf neu (Version März 2020)
Ich habe versucht, Dropout zu erklären
[Deep Learning von Grund auf neu] Anfangsgewicht des neuronalen Netzwerks bei Verwendung der Relu-Funktion
Kapitel 3 Neuronales Netz Schneiden Sie nur die guten Punkte des Deeplearning aus, die von Grund auf neu erstellt wurden
[Deep Learning von Grund auf neu] Implementieren Sie die Backpropagation-Verarbeitung in einem neuronalen Netzwerk mithilfe der Fehler-Back-Propagation-Methode
[Deep Learning von Grund auf neu] Implementierung der Momentum-Methode und der AdaGrad-Methode
Versuchen Sie, ein Deep Learning / Neuronales Netzwerk mit Scratch aufzubauen
Ein Amateur stolperte in Deep Learning von Grund auf neu Hinweis: Kapitel 1
Ein Amateur stolperte über Deep Learning ❷ von Grund auf neu Hinweis: Kapitel 5
Ein Amateur stolperte über Deep Learning ❷ von Grund auf neu Hinweis: Kapitel 2
Ein Amateur stolperte in Deep Learning von Grund auf neu Hinweis: Kapitel 3
Ein Amateur stolperte in Deep Learning von Grund auf neu. Hinweis: Kapitel 7
Ein Amateur stolperte in Deep Learning von Grund auf neu Hinweis: Kapitel 5
Ein Amateur stolperte über Deep Learning ❷ von Grund auf neu Hinweis: Kapitel 1
Ein Amateur stolperte über Deep Learning ❷ von Grund auf neu Hinweis: Kapitel 4
Selbststudien-Memo "Deep Learning from Grund" (Nr. 18) Eins! Miau! Grad-CAM!
Ein Amateur stolperte in Deep Learning von Grund auf neu Hinweis: Kapitel 4