[PYTHON] Lernrekord Nr. 23 (27. Tag)

Lernrekord (27. Tag)

Beginn des Studiums: Samstag, 7. Dezember

Unterrichtsmaterialien usw.: ・ Miyuki Oshige "Details! Python3 Introductory Note ”(Sotech, 2017): 12/7 (Sa) -12/19 (Do) gelesen ・ Progate Python-Kurs (insgesamt 5 Kurse): Ende 12/19 (Donnerstag) -12/21 (Samstag) ・ Andreas C. Müller, Sarah Guido "(japanischer Titel) Maschinelles Lernen ab Python" (O'Reilly Japan, 2017): 21.12. (Sa) - 23. Dezember (Sa) ・ Kaggle: Real or Not? NLP mit Katastrophen-Tweets: Veröffentlicht am Samstag, 28. Dezember, bis Freitag, 3. Januar Einstellung ・ Wes Mckinney "(japanischer Titel) Einführung in die Datenanalyse von Python" (O'Reilly Japan, 2018): 1/4 (Mittwoch) bis 1/13 (Montag) gelesen ・ ** Yasuki Saito "Tiefes Lernen von Null" (O'Reilly Japan, 2016): 1/15 (Mi) ~ **

"Deep Learning von Grund auf neu"

S.164 Kapitel 5 Lesen bis zur Fehlerrückverteilungsmethode abgeschlossen.

Kapitel 5 Fehlerrückverbreitungsmethode

・ Die Fehlerrückausbreitungsmethode ist eine Methode zur effizienten Berechnung des Gradienten des Gewichtsparameters, der die Bedeutung des Elements darstellt. Die in Kapitel 4 durchgeführte Gradientenberechnung durch numerische Differenzierung ist einfach, nimmt jedoch Zeit in Anspruch, kann jedoch mit hoher Geschwindigkeit berechnet werden. (Es gibt jedoch komplizierte Teile.) In diesem Buch werden Erklärungen anhand von "Berechnungsgraphen" gegeben.

-Fortschreitung: Fährt mit der Berechnung von links nach rechts fort. Rückwärtsausbreitung: Verbessert die Berechnung von rechts nach links.

-Kettenregel: Eigenschaften synthetischer Funktionen zur Differenzierung ** "Wenn eine Funktion durch eine zusammengesetzte Funktion dargestellt wird, kann das Differential dieser zusammengesetzten Funktion durch das Produkt der Differentiale jeder der Funktionen dargestellt werden, aus denen die zusammengesetzte Funktion besteht." "**"

\frac{\partial_z}{\partial_x} = \frac{\partial_z}{\partial_t}\frac{\partial_t}{\partial_x}

Wir werden mit der Rückausbreitung der Differenzierung unter Verwendung dieses Prinzips des Kettenverhältnisses fortfahren. Alles, was Sie tun müssen, ist, es auf die gleiche Weise an der Rückseite des Eingangssignals des Knotens anzubringen. Wenn das Eingangssignal mit h und y von rechts nach links fortgesetzt wird, ist es wie folgt.

\frac{\partial_z}{\partial_t}\frac{\partial_t}{\partial_x}\frac{\partial_x}{\partial_h}\frac{\partial_h}{\partial_y}

-Addition Node: Betrachten Sie die Formel z = x + y. Da beide partiellen Differentiale Konstanten sind, sendet die Backpropagation am Additionsknoten den gleichen numerischen Wert an den nächsten Knoten (vorherigen Knoten).

· Knoten multiplizieren: Betrachten Sie die Formel z = x * y. Die partielle Differentiallösung für x ist y und die partielle Differentiallösung für y ist x Daher multipliziert die Rückausbreitung des Multiplikationsknotens das Eingangssignal mit dem ** invertierten Wert ** und sendet es an den nächsten Knoten (vorherigen Knoten). Das heißt, derjenige, in dem x fließt, wird mit y multipliziert, und derjenige, in dem y fließt, wird mit x multipliziert und zurückgegeben.

-ReLU wirkt wie ein "Schalter" in der Schaltung. Wenn der Wert die Kriterien nicht erfüllt, senden Sie beim Durchlaufen des Knotens "0" als Wert. (Das heißt, die Ausbreitung des Systems stoppt dort.)

・ Affintransformation: Berechnung des Matrizenprodukts durch Vorwärtsausbreitung eines neuronalen Netzwerks Die gewichtete Summe der Neuronen kann ausgedrückt werden als ** Y = np.dot (X, W) + B **. Bei der Weitergabe dieser gewichteten Summe wird eine affine Transformation durchgeführt.

-Gradientenprüfung: Zur Überprüfung des Ergebnisses der numerischen Differenzierung und des Ergebnisses des Gradienten, der durch die Fehlerrückausbreitungsmethode erhalten wurde. ** Subtrahieren Sie den numerischen Differenzwert vom Fehler-Backpropagation-Wert **. Bei korrekter Implementierung ist der Fehler so gering wie möglich und nahe Null.

Recommended Posts

Lernrekord Nr. 10 (14. Tag)
Lernrekord Nr. 24 (28. Tag)
Lernrekord Nr. 23 (27. Tag)
Lernrekord Nr. 25 (29. Tag)
Lernrekord Nr. 26 (30. Tag)
Lernrekord Nr. 20 (24. Tag)
Lernrekord Nr. 14 (18. Tag) Kaggle4
Lernrekord Nr. 15 (19. Tag) Kaggle5
Lernrekord 4 (8. Tag)
Lernrekord 9 (13. Tag)
Lernrekord 3 (7. Tag)
Lernrekord 5 (9. Tag)
Lernrekord 6 (10. Tag)
Lernrekord 1 (4. Tag)
Lernrekord 7 (11. Tag)
Lernrekord 2 (6. Tag)
Lernrekord 16 (20. Tag)
Lernrekord 22 (26. Tag)
Lernrekord 13 (17. Tag) Kaggle3
Lernrekord Nr. 17 (21. Tag)
Lernrekord 12 (16. Tag) Kaggle2
Lernrekord Nr. 18 (22. Tag)
Lernrekord Nr. 19 (23. Tag)
Lernrekord Nr. 28 (32. Tag)
Lernrekord Nr. 27 (31. Tag)
Lernrekord 11 (15. Tag) Kaggle-Teilnahme
Programmieren des Lernprotokolls 2. Tag
Lernaufzeichnung
Lernrekord Nr. 3
Lernrekord Nr. 1
Lernaufzeichnung (2. Tag) Scraping von #BeautifulSoup
Lernaufzeichnung (4. Tag) #Wie man den absoluten Pfad vom relativen Pfad erhält
Bisherige Lernbilanz
Linux-Lernprotokoll ① Planen
<Kurs> Tiefes Lernen: Day2 CNN
Lernaufzeichnung (3. Tag) # CSS-Selektorbeschreibungsmethode #Scraping with BeautifulSoup
<Kurs> Tiefes Lernen: Tag 1 NN
Lerndatensatz (6. Tag) #Set-Typ #Dictionary-Typ #Mutuelle Konvertierung des Listen-Taple-Sets #ndarray-Typ #Pandas (DataFrame-Typ)
Themen> Deep Learning: Tag 3 RNN
Studiere gründlich Deep Learning [DW Tag 0]