[PYTHON] Lernrekord Nr. 25 (29. Tag)

Lernrekord (29. Tag)

Beginn des Studiums: Samstag, 7. Dezember

Unterrichtsmaterialien usw.: ・ Miyuki Oshige "Details! Python3 Introductory Note ”(Sotech, 2017): 12/7 (Sa) -12/19 (Do) gelesen ・ Progate Python-Kurs (insgesamt 5 Kurse): Ende 12/19 (Donnerstag) -12/21 (Samstag) ・ Andreas C. Müller, Sarah Guido "(japanischer Titel) Maschinelles Lernen ab Python" (O'Reilly Japan, 2017): 21.12. (Sa) - 23. Dezember (Sa) ・ Kaggle: Real or Not? NLP mit Katastrophen-Tweets: Veröffentlicht am Samstag, 28. Dezember, bis Freitag, 3. Januar Einstellung ・ Wes Mckinney "(japanischer Titel) Einführung in die Datenanalyse von Python" (O'Reilly Japan, 2018): 1/4 (Mittwoch) bis 1/13 (Montag) gelesen ・ Yasuki Saito "Tiefes Lernen von Null" (O'Reilly Japan, 2016): 1/15 (Mi) -1/20 (Mo)

"Deep Learning von Grund auf neu"

1/20 (Montag) Ende des Lesens.

Kapitel 8 Deep Learning

・ Das tiefere ist das tiefe neuronale Netzwerk (Deep Learning), indem die in Kapitel 7 erwähnte CNN-Schicht vergrößert wird.

-Probleme wie der MNIST-Datensatz, die hinsichtlich des Maßstabs wenig Vorteile haben, aber wesentlich zur Verbesserung der Erkennungsgenauigkeit bei der allgemeinen Objekterkennung in größerem Maßstab beitragen.

・ Ensemble und Datenerweiterung tragen ebenfalls zur Verbesserung der Erkennungsgenauigkeit bei. Datenerweiterung bezieht sich auf das Erhöhen der Anzahl von Bildern (Erhöhen des Bildvolumens) durch Hinzufügen von Rotations- oder Minutenänderungen in vertikaler und horizontaler Richtung zum Eingabebild.

・ Vorteile der Vertiefung der Schicht 1 Die Anzahl der Parameter kann reduziert werden. Durch Stapeln kleiner Filter zur Vertiefung des Netzwerks ist es möglich, einen weiten Bereich lokaler räumlicher Regionen (Empfangsbereiche) abzudecken, die Veränderungen in Neuronen verursachen.

・ Vorteile der Vertiefung der Schicht 2 Steigert die Lerneffizienz. Durch die Vertiefung des Netzwerks kann das zu lernende Problem hierarchisch zerlegt und als einfacheres Problem angegangen werden. Insbesondere werden in der ersten Schicht nur die Kanten zum Lernen hervorgehoben, und in der zweiten und nachfolgenden Schicht können fortgeschrittenere Muster auf der Grundlage der in der vorherigen Schicht gelernten Informationen effizient gelernt werden.

・ Der Grund, warum diese Vorteile erzielt wurden, ist, dass die Technologie und Umgebung (Big Data, GPU usw.), die auch bei vertieften Schichten korrekt erlernt werden können, entwickelt wurden.

・ Beim Deep Learning ist es erforderlich, eine große Anzahl von Produktsummenoperationen (oder Matrixberechnungen) durchzuführen. Die GPU hilft dabei sehr. Die GPU wurde als dedizierte Grafikkarte verwendet. Da sie jedoch auch für eine Vielzahl von Paralleloperationen geeignet ist, hat sie einen großen Einfluss auf die Entwicklung des Deep Learning. (Im Gegenteil, die CPU ist gut in kontinuierlichen und komplizierten Berechnungen.)

・ Praktisches Beispiel 1: Objekterkennung Problem der Klassifizierung des Bildes einschließlich der Positionsidentifikation des Objekts

・ Praktisches Beispiel 2: Segmentierung Das Problem der Klassifizierung von Bildern auf Pixelebene Zum Zeitpunkt der Ausgabe werden alle Pixel klassifiziert.

-Praktisches Beispiel 3: Erzeugung von Bildunterschriften Ein Modell namens NIC (Neural Image Caption) ist berühmt Es besteht aus einem tiefen CNN und einem RNN (Recurrent Neural Network) für den Umgang mit natürlichen Sprachen. Durch Extrahieren eines Features aus dem Bild durch CNN und Übergeben an RNN wird der Eingabetext rekursiv mit diesem Feature als Anfangswert generiert. Die Verarbeitung durch Kombinieren mehrerer Arten von Informationen wie in diesem praktischen Beispiel wird als multimodale Verarbeitung bezeichnet. Es hat in den letzten Jahren Aufmerksamkeit erregt.

・ Praktisches Beispiel 4: Automatikbetrieb Unter den Bestandteilen der Technologien trägt es wesentlich zur Technologie bei, die die Umgebung erkennt, was als besonders wichtig bezeichnet wird. Indem die Gleisumgebung in jeder Situation robust erkannt wird, kommt sie der Realisierung näher.

・ Praktisches Beispiel 5: Deep Q-Network (Stärkung des Lernens) Das Grundgerüst besteht darin, dass ein sogenannter Agent eine Aktion entsprechend der Situation der Umgebung auswählt und sich die Umgebung entsprechend dieser Aktion ändert. Aufgrund von Änderungen in der Umgebung erhalten Agenten Belohnungen (Beobachtungsergebnisse), um zukünftige Handlungsrichtlinien festzulegen. Alpha Go ist auch einer von ihnen.

Recommended Posts

Lernrekord Nr. 21 (25. Tag)
Lernrekord Nr. 10 (14. Tag)
Lernrekord Nr. 24 (28. Tag)
Lernrekord Nr. 23 (27. Tag)
Lernrekord Nr. 25 (29. Tag)
Lernrekord Nr. 26 (30. Tag)
Lernrekord Nr. 20 (24. Tag)
Lernrekord Nr. 15 (19. Tag) Kaggle5
Lernrekord 4 (8. Tag)
Lernrekord 9 (13. Tag)
Lernrekord 3 (7. Tag)
Lernrekord 5 (9. Tag)
Lernrekord 6 (10. Tag)
Lernrekord 8 (12. Tag)
Lernrekord 1 (4. Tag)
Lernrekord 7 (11. Tag)
Lernrekord 2 (6. Tag)
Lernrekord 16 (20. Tag)
Lernrekord 22 (26. Tag)
Lernrekord Nr. 17 (21. Tag)
Lernrekord 12 (16. Tag) Kaggle2
Lernrekord Nr. 18 (22. Tag)
Lernrekord Nr. 19 (23. Tag)
Lernrekord Nr. 29 (33. Tag)
Lernrekord Nr. 28 (32. Tag)
Lernrekord Nr. 27 (31. Tag)
Lernrekord 11 (15. Tag) Kaggle-Teilnahme
Lernrekord Nr. 3
Lernrekord Nr. 1
Lernrekord Nr. 2
Python-Lerntag 4
Lernaufzeichnung (2. Tag) Scraping von #BeautifulSoup
Lernaufzeichnung (4. Tag) #Wie man den absoluten Pfad vom relativen Pfad erhält
Linux-Lernprotokoll ① Planen
<Kurs> Tiefes Lernen: Day2 CNN
<Kurs> Tiefes Lernen: Tag 1 NN
Lerndatensatz (6. Tag) #Set-Typ #Dictionary-Typ #Mutuelle Konvertierung des Listen-Taple-Sets #ndarray-Typ #Pandas (DataFrame-Typ)