Beginn des Studiums: Samstag, 7. Dezember
Unterrichtsmaterialien usw.: ・ Miyuki Oshige "Details! Python3 Introductory Note ”(Sotech, 2017): 12/7 (Sa) -12/19 (Do) gelesen ・ Progate Python-Kurs (insgesamt 5 Kurse): Ende 12/19 (Donnerstag) -12/21 (Samstag) ・ Andreas C. Müller, Sarah Guido "(japanischer Titel) Maschinelles Lernen ab Python" (O'Reilly Japan, 2017): 21.12. (Sa) - 23. Dezember (Sa) ・ Kaggle: Real or Not? NLP mit Katastrophen-Tweets: Veröffentlicht am Samstag, 28. Dezember, bis Freitag, 3. Januar Einstellung ・ Wes Mckinney "(japanischer Titel) Einführung in die Datenanalyse von Python" (O'Reilly Japan, 2018): 1/4 (Mittwoch) bis 1/13 (Montag) gelesen ・ Yasuki Saito "Tiefes Lernen von Null" (O'Reilly Japan, 2016): 1/15 (Mi) -1/20 (Mo)
1/20 (Montag) Ende des Lesens.
・ Das tiefere ist das tiefe neuronale Netzwerk (Deep Learning), indem die in Kapitel 7 erwähnte CNN-Schicht vergrößert wird.
-Probleme wie der MNIST-Datensatz, die hinsichtlich des Maßstabs wenig Vorteile haben, aber wesentlich zur Verbesserung der Erkennungsgenauigkeit bei der allgemeinen Objekterkennung in größerem Maßstab beitragen.
・ Ensemble und Datenerweiterung tragen ebenfalls zur Verbesserung der Erkennungsgenauigkeit bei. Datenerweiterung bezieht sich auf das Erhöhen der Anzahl von Bildern (Erhöhen des Bildvolumens) durch Hinzufügen von Rotations- oder Minutenänderungen in vertikaler und horizontaler Richtung zum Eingabebild.
・ Vorteile der Vertiefung der Schicht 1 Die Anzahl der Parameter kann reduziert werden. Durch Stapeln kleiner Filter zur Vertiefung des Netzwerks ist es möglich, einen weiten Bereich lokaler räumlicher Regionen (Empfangsbereiche) abzudecken, die Veränderungen in Neuronen verursachen.
・ Vorteile der Vertiefung der Schicht 2 Steigert die Lerneffizienz. Durch die Vertiefung des Netzwerks kann das zu lernende Problem hierarchisch zerlegt und als einfacheres Problem angegangen werden. Insbesondere werden in der ersten Schicht nur die Kanten zum Lernen hervorgehoben, und in der zweiten und nachfolgenden Schicht können fortgeschrittenere Muster auf der Grundlage der in der vorherigen Schicht gelernten Informationen effizient gelernt werden.
・ Der Grund, warum diese Vorteile erzielt wurden, ist, dass die Technologie und Umgebung (Big Data, GPU usw.), die auch bei vertieften Schichten korrekt erlernt werden können, entwickelt wurden.
** VGG **: Grundlegendes CNN, bestehend aus einer Faltschicht und einer Poolschicht Die Faltschicht mit einem kleinen Filter wird kontinuierlich durchgeführt, und die Größe wird mit der Poolschicht halbiert und so weiter. Schließlich wird das Ergebnis über die vollständig verbundene Schicht ausgegeben. Eine Basis, die von vielen Ingenieuren aufgrund ihrer einfachen Struktur und hohen Vielseitigkeit verwendet wird.
** GoogLeNet **: Ein Netzwerk, dessen Tiefe (Ausbreitung) nicht nur in vertikaler, sondern auch in horizontaler Richtung liegt Es werden mehrere Filter und Pools unterschiedlicher Größe angewendet, und eine sogenannte Anfangsstruktur, die die Ergebnisse kombiniert, wird als ein Baustein verwendet.
** ResNet **: Netzwerk mit Sprungstruktur (auch Bypass oder Shortcut genannt) Effizientes Lernen kann erreicht werden, selbst wenn die Schicht vertieft wird, indem ein Mechanismus angewendet wird, bei dem die Ausgabe über die Faltungsschicht der Eingabedaten ausgegeben wird. Wenn die Eingabedaten so wie sie sind fließen, besteht keine Sorge, dass der Gradient klein wird, es ist zu erwarten, dass ein bedeutungsvoller Gradient übertragen wird, und es gibt einen Abschwächungseffekt auf das Gradientenverschwindungsproblem, das durch die Vertiefung der Schicht verursacht wird. Wurde getan.
・ Beim Deep Learning ist es erforderlich, eine große Anzahl von Produktsummenoperationen (oder Matrixberechnungen) durchzuführen. Die GPU hilft dabei sehr. Die GPU wurde als dedizierte Grafikkarte verwendet. Da sie jedoch auch für eine Vielzahl von Paralleloperationen geeignet ist, hat sie einen großen Einfluss auf die Entwicklung des Deep Learning. (Im Gegenteil, die CPU ist gut in kontinuierlichen und komplizierten Berechnungen.)
・ Praktisches Beispiel 1: Objekterkennung Problem der Klassifizierung des Bildes einschließlich der Positionsidentifikation des Objekts
・ Praktisches Beispiel 2: Segmentierung Das Problem der Klassifizierung von Bildern auf Pixelebene Zum Zeitpunkt der Ausgabe werden alle Pixel klassifiziert.
-Praktisches Beispiel 3: Erzeugung von Bildunterschriften Ein Modell namens NIC (Neural Image Caption) ist berühmt Es besteht aus einem tiefen CNN und einem RNN (Recurrent Neural Network) für den Umgang mit natürlichen Sprachen. Durch Extrahieren eines Features aus dem Bild durch CNN und Übergeben an RNN wird der Eingabetext rekursiv mit diesem Feature als Anfangswert generiert. Die Verarbeitung durch Kombinieren mehrerer Arten von Informationen wie in diesem praktischen Beispiel wird als multimodale Verarbeitung bezeichnet. Es hat in den letzten Jahren Aufmerksamkeit erregt.
・ Praktisches Beispiel 4: Automatikbetrieb Unter den Bestandteilen der Technologien trägt es wesentlich zur Technologie bei, die die Umgebung erkennt, was als besonders wichtig bezeichnet wird. Indem die Gleisumgebung in jeder Situation robust erkannt wird, kommt sie der Realisierung näher.
・ Praktisches Beispiel 5: Deep Q-Network (Stärkung des Lernens) Das Grundgerüst besteht darin, dass ein sogenannter Agent eine Aktion entsprechend der Situation der Umgebung auswählt und sich die Umgebung entsprechend dieser Aktion ändert. Aufgrund von Änderungen in der Umgebung erhalten Agenten Belohnungen (Beobachtungsergebnisse), um zukünftige Handlungsrichtlinien festzulegen. Alpha Go ist auch einer von ihnen.
Recommended Posts