[Fazit] Wenn Sie das Gewicht ändern, ändert sich das Diagramm. ▷ Wenn Sie den Gewichtswert erhöhen, wird das Diagramm der Aktivierungsfunktion steiler. ▷ Wenn der Gewichtswert reduziert wird, wird der Graph der Aktivierungsfunktion sanfter.
[Erläuterung] Ich betrachtete ein einfaches Beispiel, in dem sich ein Eingangsneuron vorwärts ausbreitet. Ich habe die Sigmoid-Funktion als Aktivierungsfunktion verwendet.
Bei der ersten Berechnung ist die Ausgabe y ein linearer Graph (gerade Linie). ▷ y=wx+b
Wenn das Ergebnis durch die Aktivierungsfunktion geleitet wird, wird es zu einem nichtlinearen Diagramm (matschige Linie). ▷ y'=1/(1+(-y))
Sie können sehen, dass sich die Form des Diagramms ändert, wenn Sie den Gewichtswert ändern.
[Fazit] Wenn Sie die Vorspannung ändern, ändert sich das Diagramm. ▷ Wenn Sie den Bias-Wert erhöhen, bewegt sich der Graph der Aktivierungsfunktion parallel zur rechten (Plus-) Richtung. ▷ Wenn der Vorspannungswert verringert wird, bewegt sich der Aktivierungsfunktionsgraph parallel zur linken (Minus-) Richtung.
Sie können die Form des Diagramms frei ändern, indem Sie die Werte für Gewicht und Vorspannung (zusammen Parameter) ändern.
Maschinelles Lernen erledigt dies automatisch und bringt es dem idealen Diagramm näher.
** "KI für Katzenallergie" ** https://t.co/4ltE8gzBVv?amp=1
Wir senden über maschinelles Lernen auf YouTube. Wenn Sie Zeit haben, schauen Sie bitte.
Recommended Posts