[PYTHON] [Deep Learning von Grund auf neu] Anfangsgewicht des neuronalen Netzwerks bei Verwendung der Relu-Funktion

Einführung

Dieser Artikel ist eine leicht verständliche Ausgabe von ** Deep Learning von Grund auf neu. Kapitel 7 Lerntechniken **. Ich konnte es selbst verstehen, also hoffe ich, dass Sie es bequem lesen können. Ich würde mich auch sehr freuen, wenn Sie sich beim Studium dieses Buches darauf beziehen könnten.

Über den Anfangswert des Gewichts des neuronalen Netzes

Bisher verwendete der Anfangswert des Gewichts des neuronalen Netzwerks die Zufallsmethode, um eine Zufallszahl zu erzeugen, aber dies würde den Erfolg des Lernens erweitern.

Der Anfangswert des Gewichts und das Training des neuronalen Netzwerks sind sehr eng miteinander verbunden, und wenn der Anfangswert angemessen ist, ist das Lernergebnis gut, und wenn der Anfangswert unangemessen ist, ist das Lernergebnis schlecht.

Daher möchte ich dieses Mal eine Methode zum Festlegen eines geeigneten Anfangsgewichtswerts in einem neuronalen Netzwerk mithilfe der Relu-Funktion implementieren.

Anfangswert von He

Der Anfangswert des Gewichts, der für das neuronale Netzwerk unter Verwendung der Relu-Funktion am besten geeignet ist, ist der Anfangswert von He.

scale = np.sqrt(2.0 / all_size_list[idx - 1])
self.params['W' + str(idx)] = scale * np.random.randn(all_size_list[idx-1], all_size_list[idx])

Der Anfangswert von He kann erzeugt werden, indem die Wurzel der Anzahl der Knoten in der vorherigen Schicht mit 2 ÷ berechnet und mit der durch Zufall erhaltenen Zufallszahl multipliziert wird.

Recommended Posts

[Deep Learning von Grund auf neu] Anfangsgewicht des neuronalen Netzwerks bei Verwendung der Relu-Funktion
[Deep Learning von Grund auf neu] Anfangswert des Gewichts des neuronalen Netzwerks unter Verwendung der Sigmoid-Funktion
"Deep Learning from Grund" Memo zum Selbststudium (Nr. 10-2) Anfangswert des Gewichts
Python vs Ruby "Deep Learning von Grund auf neu" Kapitel 3 Diagramm der Schrittfunktion, Sigmoidfunktion, ReLU-Funktion
Kapitel 3 Neuronales Netz Schneiden Sie nur die guten Punkte des Deeplearning aus, die von Grund auf neu erstellt wurden
Lua-Version Deep Learning von Grund auf neu Teil 6 [Inferenzverarbeitung für neuronale Netze]
Python vs Ruby "Deep Learning von Grund auf neu" Kapitel 4 Implementierung der Verlustfunktion
[Lernnotiz] Deep Learning von Grund auf ~ Implementierung von Dropout ~
Deep Learning von Grund auf neu
Anwendung von Deep Learning 2 von Grund auf neu Spam-Filter
[Deep Learning] Führen Sie die neuronale SONY-Netzwerkkonsole über CUI aus
Gegenmaßnahmen für den Fehler "Oberes Verzeichnis kann nicht abgerufen werden" bei Verwendung von Deep Learning ②, das mit dem Spyder von ANACONDA von Grund auf neu erstellt wurde
Deep Learning von Grund auf 1-3 Kapitel
[Deep Learning von Grund auf neu] Implementierung der Momentum-Methode und der AdaGrad-Methode
Rank Learning über ein neuronales Netzwerk (RankNet-Implementierung von Chainer)
Versuchen Sie, ein Deep Learning / Neuronales Netzwerk mit Scratch aufzubauen
[Deep Learning] Untersuchen Sie, wie jede Funktion des Faltungsnetzes verwendet wird [DW Tag 3]
[Deep Learning von Grund auf neu] Methoden zur Aktualisierung der wichtigsten Parameter für neuronale Netze
Tiefes Lernen von Grund auf neu (Kostenberechnung)
[Deep Learning von Grund auf neu] Informationen zu den Ebenen, die für die Implementierung der Backpropagation-Verarbeitung in einem neuronalen Netzwerk erforderlich sind
Deep Learning von Grund auf neu 4.4.2 Gradient für neuronale Netze Die Frage nach der Funktion numerischer Gradient wurde gelöst.
Schreiben Sie Ihre Eindrücke von der Deep Learning 3 Framework Edition, die von Grund auf neu erstellt wurde
Deep Learning Memo von Grund auf neu gemacht
Selbststudien-Memo "Deep Learning from Grund" (Nr. 13) Verwenden Sie Google Colaboratory
[Deep Learning von Grund auf neu] Ich habe versucht, Sigmoid Layer und Relu Layer zu implementieren
[Lernnotiz] Deep Learning von Grund auf neu gemacht [Kapitel 7]
Tiefes Lernen von Grund auf neu (Vorwärtsausbreitung)
Implementierung eines 3-Schicht-Neuronalen Netzwerks (kein Lernen)
Tiefes Lernen / Tiefes Lernen von Grund auf 2-Versuchen Sie, GRU zu bewegen
Deep Learning / Deep Learning von Grund auf neu Kapitel 6 Memo
[Lernnotiz] Deep Learning von Grund auf neu gemacht [Kapitel 5]
[Lernnotiz] Deep Learning von Grund auf neu gemacht [Kapitel 6]
"Deep Learning von Grund auf neu" mit Haskell (unvollendet)
Implementierung von "verschwommenen" neuronalen Netzen mit Chainer
Deep Learning / Deep Learning von Grund auf neu Kapitel 7 Memo
[Windows 10] Aufbau einer "Deep Learning from Scratch" -Umgebung
[Deep Learning von Grund auf neu] Über die Optimierung von Hyperparametern
"Deep Learning from Grund" Memo zum Selbststudium (Teil 12) Deep Learning
[Lernnotiz] Deep Learning von Grund auf neu gemacht [~ Kapitel 4]
Deep Learning von Grund auf neu Die Theorie und Implementierung des mit Python erlernten Deep Learning Kapitel 3
[Deep Learning von Grund auf neu] Beschleunigen des neuronalen Netzwerks Ich erklärte die Verarbeitung der Rückausbreitung
Selbststudien-Memo "Deep Learning from Grund" (unlesbares Glossar)
[Python / Maschinelles Lernen] Warum Deep Learning # 1 Perceptron Neural Network
"Deep Learning from Grund" Memo zum Selbststudium (Nr. 9) MultiLayerNet-Klasse
Deep Learning von Grund auf neu ① Kapitel 6 "Lerntechniken"
GitHub des guten Buches "Deep Learning von Grund auf neu"
Deep Learning / Fehler-Backpropagation der Sigmoid-Funktion
Deep Learning von Grund auf neu Kapitel 2 Perceptron (Memo lesen)
Python vs Ruby "Deep Learning von Grund auf neu" Zusammenfassung
Deep Learning von Grund auf neu 4.3.3 Zeichnen Sie einen Gradientenvektor Ihrer eigenen Funktion basierend auf dem Beispielcode der partiellen Differenzierung.
"Deep Learning from Grund" Memo zum Selbststudium (10) MultiLayerNet-Klasse
"Deep Learning from Grund" Memo zum Selbststudium (Nr. 11) CNN
Python vs Ruby "Deep Learning from Grund" Kapitel 1 Diagramm der Sin-Funktion und der Cos-Funktion
[Deep Learning von Grund auf neu] Ich habe die Affine-Ebene implementiert
"Deep Learning from Grund" Memo zum Selbststudium (Nr. 19) Datenerweiterung
Othello ~ Aus der dritten Zeile von "Implementation Deep Learning" (4) [Ende]
Implementierung eines Faltungs-Neuronalen Netzwerks mit nur Numpy
Ich habe versucht, Dropout zu erklären
Sammlung und Automatisierung erotischer Bilder durch Deep Learning