[PYTHON] Lernrekord 22 (26. Tag)

Lernrekord (26. Tag)

Beginn des Studiums: Samstag, 7. Dezember

Unterrichtsmaterialien usw.: ・ Miyuki Oshige "Details! Python3 Introductory Note ”(Sotech, 2017): 12/7 (Sa) -12/19 (Do) gelesen ・ Progate Python-Kurs (insgesamt 5 Kurse): Ende 12/19 (Donnerstag) -12/21 (Samstag) ・ Andreas C. Müller, Sarah Guido "(japanischer Titel) Maschinelles Lernen ab Python" (O'Reilly Japan, 2017): 21.12. (Sa) - 23. Dezember (Sa) ・ Kaggle: Real or Not? NLP mit Katastrophen-Tweets: Veröffentlicht am Samstag, 28. Dezember, bis Freitag, 3. Januar Einstellung ・ Wes Mckinney "(japanischer Titel) Einführung in die Datenanalyse von Python" (O'Reilly Japan, 2018): 1/4 (Mittwoch) bis 1/13 (Montag) gelesen ・ ** Yasuki Saito "Tiefes Lernen von Null" (O'Reilly Japan, 2016): 1/15 (Mi) ~ **

"Deep Learning von Grund auf neu"

Ich habe gestern angefangen zu lesen, weil ich das neuronale Netz und das tiefe Lernen besser verstehen wollte, was ein Durchbruch in der KI-Forschung war. S.122 Kapitel 4 Lesen Sie das neuronale Netz vollständig durch.

Kapitel 1 Einführung in Python

・ Grundsätzlich eine Überprüfung meiner bisherigen Aktivitäten (Python-Übersicht, Umgebungskonstruktion, arithmetischer Durchschnitt usw.) Ein Kapitel, das das Wissen beschreibt, das erforderlich ist, um dieses Buch weiterzulesen Nur der Teil, den ich nicht wenig verstanden habe, wird beschrieben

・ Bool: Ein Typ, der entweder True oder False annimmt Operatoren wie und oder oder nicht können verwendet werden.

Klassendefinition


Klasse Klassenname:
    def __init__(self,Streit, …): #Konstrukteur
    ...
def Methodenname 1(self,Streit, …): #Methode 1
    ...
def Methodenname 2(self,Streit, …): #Methode 2
    ...

#Der Konstruktor wird auch als Initialisierungsmethode bezeichnet.

Kapitel 2 Perceptron

・ Perceptron ist ein Algorithmus, den es seit 60 Jahren gibt (erfunden 1957). Es ist der Ursprung des neuronalen Netzwerks (Deep Learning).

-Das Perceptron empfängt mehrere Signale als Ein- und Ausgänge eines Signals. Das Perceptron-Signal ist ein Binärwert von "Flow or Not Flow" (1 oder 0). Jedes der mehreren Eingangssignale hat ein eindeutiges Gewicht, und je größer das Gewicht ist, desto wichtiger ist das entsprechende Signal. Ein Wert, der die Wichtigkeit des Eingangssignals steuert.

Kapitel 3 Neuronales Netz

-Die Aktivierungsfunktion ist eine Funktion, die den Ausgang an der Grenze des Schwellenwerts schaltet und als Schrittfunktion oder Schrittfunktion bezeichnet wird. Perceptron verwendet eine Schrittfunktion.

-Die in der letzten Ausgabeebene verwendete Aktivierungsfunktion muss je nach Aufgabe ordnungsgemäß verwendet werden. Im Allgemeinen wird die Softmax-Funktion für Klassifizierungsprobleme verwendet (Erraten, zu welcher Klasse sie gehören), und die Äquivalenzfunktion wird für Regressionsprobleme verwendet (Erraten von Zahlen).

・ Die Konstantenfunktion sendet den Wert so wie er ist. Die Softmax-Funktion zeichnet sich dadurch aus, dass sie ** wahrscheinlich (statistisch) auf das Problem reagieren kann und die Gesamtleistung 1 beträgt. ** (Das heißt, wenn a = 0,2, b = 0,5, c = 0,3 ist, beträgt die Wahrscheinlichkeit von a 20%, die Wahrscheinlichkeit von b 50% und die Wahrscheinlichkeit von c 30%.)

-Kohäsive Eingabedaten werden als Stapel bezeichnet. Es bedeutet ein Haufen. Die Berechnung kann beschleunigt werden, indem die Inferenzverarbeitung stapelweise durchgeführt wird.

Kapitel 4 Neuronale Netze lernen

-Neurales Netzwerk (Deep Learning) lernt einfach gegebene Daten und versucht, Muster zu entdecken. Unabhängig vom Zielproblem können die Daten "End-to-End" als Rohdaten gelernt werden.

-Der Zweck des Lernens besteht darin, zu berechnen, wie sich die Verlustfunktion ändert, wenn der Gewichtsparameter ein wenig geändert wird, und einen Ort zu finden, an dem der Verlust geringer ist. Hier kommt die Idee der ** Differenzierung (Gradient) **. Es ist eine wichtige Eigenschaft bei diesem Lernen, dass die Differenzierung der Sigmoidfunktion an keiner Stelle 0 wird.

・ Differenzierung ist das Ausmaß der Änderung zu einem bestimmten Zeitpunkt. Das Finden der Differenzierung durch einen kleinen Unterschied wird als ** numerische Differenzierung ** bezeichnet und wird hauptsächlich verwendet. Es wird gesagt, dass 1e-4 (10 bis 4. Potenz, 0,0001) gut für die winzige Differenz h ist. Auf der anderen Seite wird das Finden durch mathematische Erweiterung als analytische Differenzierung bezeichnet.

・ Parameter wie die Lernrate werden als Hyperparameter bezeichnet. Dies unterscheidet sich von den Gewichten und Vorurteilen, die das neuronale Netzwerk selbst lernen kann, und muss manuell eingestellt werden.

・ 4 Schritte zum Erlernen des neuronalen Netzes

1 Wählen Sie eine Mini-Charge aus und erhalten Sie eine Verlustfunktion. 2 Finden Sie den Gradienten und einen Weg, um die Verlustfunktion zu reduzieren. 3 Aktualisieren Sie den Gewichtsparameter in Verlaufsrichtung. 4 Wiederholen Sie die Schritte 1 bis 3.

Das Obige wird als ** stochastischer Gradientenabstieg (SVD) ** bezeichnet.

・ ** Epoche **: 1 Epoche ist eine Einheit und entspricht der Häufigkeit, mit der alle Daten aufgebraucht sind. Wenn Sie mit 100 Mini-Batch für 10.000 Daten trainieren, werden nach 100-maliger Wiederholung alle Trainingsdaten angezeigt. Mit anderen Worten, 100 mal = 1 Epoche.

Recommended Posts

Lernrekord 4 (8. Tag)
Lernrekord 9 (13. Tag)
Lernrekord 3 (7. Tag)
Lernrekord 5 (9. Tag)
Lernrekord 6 (10. Tag)
Lernrekord 1 (4. Tag)
Lernrekord 7 (11. Tag)
Lernrekord 2 (6. Tag)
Lernrekord 16 (20. Tag)
Lernrekord 22 (26. Tag)
Lernrekord 13 (17. Tag) Kaggle3
Lernrekord Nr. 10 (14. Tag)
Lernrekord 12 (16. Tag) Kaggle2
Lernrekord Nr. 24 (28. Tag)
Lernrekord Nr. 25 (29. Tag)
Lernrekord Nr. 26 (30. Tag)
Lernrekord Nr. 20 (24. Tag)
Lernrekord Nr. 14 (18. Tag) Kaggle4
Lernrekord Nr. 15 (19. Tag) Kaggle5
Programmieren des Lernprotokolls 2. Tag
Lernrekord Nr. 17 (21. Tag)
Lernaufzeichnung
Lernrekord Nr. 18 (22. Tag)
Lernrekord Nr. 3
Lernrekord Nr. 1
Lernrekord Nr. 19 (23. Tag)
Lernrekord Nr. 28 (32. Tag)
Lernrekord Nr. 27 (31. Tag)
Lernaufzeichnung (2. Tag) Scraping von #BeautifulSoup
Bisherige Lernbilanz
Lernaufzeichnung (4. Tag) #Wie man den absoluten Pfad vom relativen Pfad erhält
Linux-Lernprotokoll ① Planen
<Kurs> Tiefes Lernen: Day2 CNN
<Kurs> Tiefes Lernen: Tag 1 NN
Themen> Deep Learning: Tag 3 RNN
Lernaufzeichnung (3. Tag) # CSS-Selektorbeschreibungsmethode #Scraping with BeautifulSoup
Lerndatensatz (6. Tag) #Set-Typ #Dictionary-Typ #Mutuelle Konvertierung des Listen-Taple-Sets #ndarray-Typ #Pandas (DataFrame-Typ)
Studiere gründlich Deep Learning [DW Tag 0]
Deep Learning Specialization (Coursera) Selbststudienprotokoll (C3W1)
[Rabbit Challenge (E-Qualifikation)] Deep Learning (Tag 2)
Deep Learning Specialization (Coursera) Selbststudienprotokoll (C1W3)
Notieren Sie die Schritte zum Verständnis des maschinellen Lernens
[Rabbit Challenge (E-Qualifikation)] Deep Learning (Tag 3)
[1 Kopie pro Tag] Classify_images_Using_Python & Machine Learning [Daily_Coding_003]
Deep Learning Specialization (Coursera) Selbststudienprotokoll (C1W4)
Deep Learning Specialization (Coursera) Selbststudienprotokoll (C2W1)
Deep Learning Specialization (Coursera) Selbststudienprotokoll (C1W2)
Deep Learning Specialization (Coursera) Selbststudienprotokoll (C3W2)
[Leet Code-Lerndatensatz] Zick-Zack-Konvertierung gelöst