[PYTHON] Deep Learning / Fehler-Backpropagation der Sigmoid-Funktion

1. Zuallererst

Fassen Sie die Fehlerrückausbreitung der Sigmoidfunktion zusammen

2. Differenzierung der Sigmoidfunktion

Die Unterscheidung der Sigmoy-Grad-Funktion hat eine schöne und einfache Form.

** Sigmoidfunktion: **

sigmoid(x) = \frac{1}{1+e^{-x}}

** Differenzierung der Sigmoidfunktion: **

sigmoid'(x) = \frac{1}{1+e^{-x}} * ( 1 - \frac{1}{1+e^{-x}})

3. Code der Sigmoidfunktion

Daher wird der Fehlerrückausbreitungscode der Sigmoidfunktion auch wie folgt vereinfacht.

Class Sigmoid(object):
   def __init__(self, x):
       self.x = x

   def forward(self):
       y = 1.0 / (1.0 + np.exp(- self.x))
       self.y = y
       return y
   
   def backward(self, grad_to_y):
       grad_to_x = grad_to_y * self.y * (1.0 - self.y)
       return grad_to_x

Recommended Posts

Deep Learning / Fehler-Backpropagation der Sigmoid-Funktion
Fehler-Back-Propagation-Methode (Back-Propagation)
Deep Learning 1 Übung des Deep Learning
Deep Learning / Softmax-Funktion
[Deep Learning von Grund auf neu] Anfangswert des Gewichts des neuronalen Netzwerks unter Verwendung der Sigmoid-Funktion
Deep Running 2 Tuning von Deep Learning
Tiefes Lernen der Verstärkung 2 Implementierung des Lernens der Verstärkung
Python vs Ruby "Deep Learning von Grund auf neu" Kapitel 3 Diagramm der Schrittfunktion, Sigmoidfunktion, ReLU-Funktion
[Deep Learning von Grund auf neu] Implementieren Sie die Backpropagation-Verarbeitung in einem neuronalen Netzwerk mithilfe der Fehler-Back-Propagation-Methode
Einführung in das tiefe Lernen ~ Funktionsnäherung ~
Einführung in Deep Learning ~ Forward Propagation ~
Deep Learning / Backpropagation von Matrixproduktfehlern
Zusammenfassender Hinweis zu Deep Learning -4.2 Verlustfunktion-
Tiefes Lernen von Grund auf neu (Vorwärtsausbreitung)
Othello-Aus der dritten Zeile von "Implementation Deep Learning" (3)
Bedeutung von Deep-Learning-Modellen und -Parametern
Versuchen Sie mit Kipoi tiefes Erlernen der Genomik
Visualisieren Sie die Auswirkungen von Deep Learning / Regularisierung
Emotionale Analyse von Tweets mit Deep Learning
Tiefes Lernen
Lernbericht über das Lesen von "Deep Learning von Grund auf neu"
[Deep Learning von Grund auf neu] Layer-Implementierung von der Softmax-Funktion zum Überkreuzen von Entropiefehlern
Python vs Ruby "Deep Learning von Grund auf neu" Kapitel 4 Implementierung der Verlustfunktion
Othello-Aus der dritten Zeile von "Implementation Deep Learning" (2)
[Deep Learning von Grund auf neu] Beschleunigen des neuronalen Netzwerks Ich erklärte die Verarbeitung der Rückausbreitung
Die Geschichte des tiefen Lernens mit TPU
Chainer und Deep Learning durch Funktionsnäherung gelernt
Ein Memorandum zum Studieren und Implementieren von Deep Learning
[Lernnotiz] Deep Learning von Grund auf ~ Implementierung von Dropout ~
Grundlegendes Verständnis der Stereo-Tiefenschätzung (Deep Learning)
Paralleles Lernen von Deep Learning durch Keras und Kubernetes
Einführung in Deep Learning ~ Lokalisierungs- und Verlustfunktion ~
Implementierung eines Deep Learning-Modells zur Bilderkennung
Tiefes Lernen durch Implementierung (Segmentierung) ~ Implementierung von SegNet ~
Deep Learning Memorandum
Starten Sie Deep Learning
Python Deep Learning
Deep Learning × Python
[Deep Learning von Grund auf neu] Anfangsgewicht des neuronalen Netzwerks bei Verwendung der Relu-Funktion
Zählen Sie die Anzahl der Parameter im Deep-Learning-Modell
Anwendung von Deep Learning 2 von Grund auf neu Spam-Filter
Techniken zum Verständnis der Grundlagen von Deep-Learning-Entscheidungen
Othello ~ Aus der dritten Zeile von "Implementation Deep Learning" (4) [Ende]
DNN (Deep Learning) Library: Vergleich von Chainer und TensorFlow (1)
Katzen haben es schon satt, locker und locker zu lernen
Sammlung und Automatisierung erotischer Bilder durch Deep Learning
DEEP PROBABILISTIC PROGRAMMING --- Bibliothek "Deep Learning + Bayes" --- Einführung von Edward
[Deep Learning] Untersuchen Sie, wie jede Funktion des Faltungsnetzes verwendet wird [DW Tag 3]