SGD lr = 0.01
Momentum SGD lr = 0.01 Das Lernen hörte unterwegs auf. War lr zu groß? (In dem Buch ist lr = 0,005.)
SGD , Batch Normalization lr = 0.01 Die Chargennormalisierung verbesserte die Genauigkeit.
Die Details der Chargennormalisierung sind nicht in dem Buch enthalten, daher habe ich mich mit dem folgenden Artikel befasst. https://qiita.com/omiita/items/01855ff13cc6d3720ea4 -Batch nom ist ein Mini-Batch, der den Wert normalisiert, bevor die Aktivierungsfunktion auf durchschnittlich 0 und bei Verteilung für jeden Kanal auf 1 gesetzt wird. ・ Der Grund für die Verbesserung mit Batch Nom ist unbekannt. Ich habe verstanden.
Überraschenderweise ist Shogi scheißschwach. Was ist die Ursache?
Spielvideo https://youtu.be/9YBImGLzm1w
Letzte Figur wie Scheiße
Recommended Posts