[PYTHON] Ein Amateur stolperte über Deep Learning ❷ von Grund auf neu Hinweis: Kapitel 1

Einführung

"Deep Learning von Grund auf neu - Die Theorie und Implementierung von Deep Learning aus Python" wurde gelesen, daher die Fortsetzung "Deep from Grund neu" ❷-Natural Language Processing lernen ", aber das Lebenstempo änderte sich aufgrund des Einflusses der neuen Corona, so dass ich gut lernen konnte. Kann nicht mehr gemacht werden. Bis jetzt war es meine tägliche Routine, auf dem Heimweg von der Arbeit zum Studium in einem Café vorbeizuschauen, aber als ich Telearbeiter wurde, lebte ich 5 Minuten nach der Arbeit in einem Bier: Sweat_smile:

Das ist nicht gut, also werde ich Arafifs Körper peitschen und das Studium fortsetzen. Wie bei Gepostet im vorherigen Band werde ich notieren, worauf ich in diesem Buch gestoßen bin, also habe ich einen Fehler gemacht. Ich wäre Ihnen dankbar, wenn Sie auf solche Probleme hinweisen könnten.

Meine Umgebung

Nach wie vor werden wir mit der virtuellen Maschine des Mac fortfahren. Das Betriebssystem der virtuellen Maschine wurde von Mojave auf Catalina aktualisiert.

Gastgeber Umgebung
hart Mac mini(Late 2012)
OS macOS Mojave Version 10.14.6
Virtualisierungsinfrastruktur Parallels Desktop 15 für Mac Pro Edition Version 15.1.4 (47270)
Die Gäste Umgebung
OS macOS Catalina Version 10.15.4
Entwicklungsumgebung Anaconda 2019.10 (Python 3.7)
Editor Visual Studio Code Version 1.44.2

Es ist möglicherweise nicht möglich, eine virtuelle Maschine vor acht Jahren auf einer Maschine auszuführen und Deep Learning durchzuführen, aber das vorherige Volume hat dies geschafft, daher werde ich fortfahren. Weitere Informationen zu meiner Umgebung finden Sie im vorherigen Beachten Sie, dass ein Amateur in Deep Learning von Grund auf neu gestolpert ist: Kapitel 1.

Kapitel 1 Überprüfung des neuronalen Netzes

Im Teil "Vorwort" dieses Buches "Wer ist das Buch?" Sind diejenigen, die Kenntnisse über neuronale Netze und Python haben, so konzipiert, dass sie dieses Buch ohne Kenntnis der vorherigen Arbeit lesen können. Ich denke jedoch, dass es schwierig ist zu wissen, wie viel vorausgesetztes Wissen erforderlich sein sollte.

Dieses Kapitel 1 enthält mehr als die Hälfte des Inhalts des vorherigen Bandes. Wenn Sie also in Kapitel 1 frustriert sein möchten, zuerst erster Band. Wir empfehlen Ihnen, jp / books / 9784873117584 /) zu lesen.

Im Folgenden werde ich die Punkte auflisten, auf die ich gestoßen bin, einschließlich der Punkte, die ich aufgrund der Unterschiede zum vorherigen Band bemerkt habe.

1.1 Überprüfung von Mathematik und Python

1.2 Neuronale Netzinferenz

1.3 Lernen neuronaler Netze

――In der Erläuterung von "1.3.4 Berechnungsdiagramm" haben sich die zu Beginn erläuterten Arten von Basisknoten gegenüber dem vorherigen Band erhöht (ich habe mich mit dem vorherigen Band in der Firma in die Telearbeit beeilt und verlasse mich auf den Speicher, aber wiederhole Wurde die Erläuterung des Knotens, des Summenknotens und des MatMul-Knotens als Basisknoten angezeigt?). Dies erleichtert auch das Verständnis der Erklärung von "1.3.5.2 Affine Schicht".

1.4 Lösen von Problemen mit einem neuronalen Netzwerk

image-20200505121346278.png

――Ich denke, dass die Erklärung von "1.4.4 Trainerklasse" nicht im ersten Band (der erste Band ist noch in der Telearbeit), sondern im Quellcode des ersten Bandes enthalten war -japan / Deep-Learning-from-Scratch / Blob / Master / Common / Trainer.py) wurde bereits übernommen.

1.5 Berechnung beschleunigen

―― "1.5.1-Bit-Genauigkeit" wurde im letzten Kapitel des vorherigen Bandes kurz erläutert, aber die Verwendung von 16-Bit-Gleitkommazahlen hat konkret begonnen. Da es sich jedoch um eine Übergangszeit handelt, gilt die Richtlinie, sie nur beim Speichern von Gewichten anzuwenden, um die Kapazität zu verringern. ――Das Gleiche gilt für "1.5.2 GPU (CuPy)", und obwohl der vorherige Band nur eine leichte Erklärung lieferte, hat die Verwendung von CuPy begonnen. Da es jedoch grundsätzlich von der CPU implementiert wird, ist es ohne GPU in Ordnung.

1.6 Zusammenfassung

Da der Schwerpunkt auf der Überprüfung des vorherigen Bandes lag, gab es keinen größeren Stolperstein. Es ist gut, dass der Quellcode auf verschiedene Weise verbessert wurde.

Das ist alles für dieses Kapitel. Wenn Sie Fehler haben, wäre ich Ihnen dankbar, wenn Sie darauf hinweisen könnten.

Recommended Posts

Ein Amateur stolperte über Deep Learning ❷ von Grund auf neu Hinweis: Kapitel 5
Ein Amateur stolperte über Deep Learning ❷ von Grund auf neu Hinweis: Kapitel 2
Ein Amateur stolperte über Deep Learning ❷ von Grund auf neu Hinweis: Kapitel 1
Ein Amateur stolperte über Deep Learning ❷ von Grund auf neu Hinweis: Kapitel 4
Ein Amateur stolperte in Deep Learning von Grund auf neu Hinweis: Kapitel 1
Ein Amateur stolperte in Deep Learning von Grund auf neu. Hinweis: Kapitel 7
Ein Amateur stolperte in Deep Learning von Grund auf neu Hinweis: Kapitel 5
Ein Amateur stolperte in Deep Learning von Grund auf neu Hinweis: Kapitel 4
Ein Amateur stolperte in Deep Learning von Grund auf neu Hinweis: Kapitel 2
[Lernnotiz] Deep Learning von Grund auf neu gemacht [Kapitel 7]
Deep Learning / Deep Learning von Grund auf neu Kapitel 6 Memo
[Lernnotiz] Deep Learning von Grund auf neu gemacht [Kapitel 5]
[Lernnotiz] Deep Learning von Grund auf neu gemacht [Kapitel 6]
Deep Learning / Deep Learning von Grund auf neu Kapitel 7 Memo
[Lernnotiz] Deep Learning von Grund auf neu gemacht [~ Kapitel 4]
Deep Learning von Grund auf neu
Deep Learning von Grund auf neu ① Kapitel 6 "Lerntechniken"
Deep Learning von Grund auf 1-3 Kapitel
Deep Learning / Deep Learning von Grund auf neu 2 Kapitel 4 Memo
Deep Learning / Deep Learning von Grund auf neu Kapitel 3 Memo
Deep Learning / Deep Learning von Null 2 Kapitel 5 Memo
Erstellen Sie mit Docker eine Umgebung für "Deep Learning von Grund auf neu"
Tiefes Lernen von Grund auf neu (Kostenberechnung)
Deep Learning / Deep Learning von Null 2 Kapitel 7 Memo
Deep Learning / Deep Learning von Null 2 Kapitel 8 Memo
Deep Learning / Deep Learning von Grund auf neu Kapitel 5 Memo
Deep Learning / Deep Learning von Grund auf neu Kapitel 4 Memo
Deep Learning / Deep Learning von Grund auf neu 2 Kapitel 3 Memo
Deep Learning Memo von Grund auf neu gemacht
Deep Learning / Deep Learning von Null 2 Kapitel 6 Memo
Schreiben Sie Ihre Eindrücke von der Deep Learning 3 Framework Edition, die von Grund auf neu erstellt wurde
Tiefes Lernen von Grund auf neu (Vorwärtsausbreitung)
Tiefes Lernen / Tiefes Lernen von Grund auf 2-Versuchen Sie, GRU zu bewegen
"Deep Learning von Grund auf neu" mit Haskell (unvollendet)
[Windows 10] Aufbau einer "Deep Learning from Scratch" -Umgebung
Lernbericht über das Lesen von "Deep Learning von Grund auf neu"
[Deep Learning von Grund auf neu] Über die Optimierung von Hyperparametern
"Deep Learning from Grund" Memo zum Selbststudium (Teil 12) Deep Learning
Python vs Ruby "Deep Learning von Grund auf neu" Kapitel 2 Logikschaltung von Perceptron
Python vs Ruby "Deep Learning von Grund auf neu" Kapitel 4 Implementierung der Verlustfunktion
Selbststudien-Memo "Deep Learning from Grund" (unlesbares Glossar)
Ein Amateur versuchte Deep Learning mit Caffe (Einführung)
GitHub des guten Buches "Deep Learning von Grund auf neu"
Ein Amateur versuchte Deep Learning mit Caffe (Übung)
[Lernnotiz] Deep Learning von Grund auf ~ Implementierung von Dropout ~
Ein Amateur hat Deep Learning mit Caffe ausprobiert (Übersicht)
Python vs Ruby "Deep Learning von Grund auf neu" Zusammenfassung
"Deep Learning from Grund" Memo zum Selbststudium (10) MultiLayerNet-Klasse
"Deep Learning from Grund" Memo zum Selbststudium (Nr. 11) CNN
Python vs Ruby "Deep Learning von Grund auf neu" Kapitel 3 Implementierung eines dreischichtigen neuronalen Netzwerks
Deep Learning von Grund auf neu Die Theorie und Implementierung des mit Python erlernten Deep Learning Kapitel 3
Lua-Version Deep Learning von Grund auf neu Teil 5.5 [Bereitstellung von pkl-Dateien in Lua Torch]
[Deep Learning von Grund auf neu] Ich habe die Affine-Ebene implementiert
Ich habe versucht, Dropout zu erklären
Python vs Ruby "Deep Learning von Grund auf neu" Kapitel 3 Diagramm der Schrittfunktion, Sigmoidfunktion, ReLU-Funktion
Python vs Ruby "Deep Learning from Grund" Kapitel 1 Diagramm der Sin-Funktion und der Cos-Funktion
[Deep Learning von Grund auf neu] Implementierung der Momentum-Methode und der AdaGrad-Methode
Kapitel 3 Neuronales Netz Schneiden Sie nur die guten Punkte des Deeplearning aus, die von Grund auf neu erstellt wurden