Dieses Mal werde ich die Softmax-Funktion kurz zusammenfassen.
Wandelt die Ausgabe des neuronalen Netzwerks in eine Gesamtwahrscheinlichkeit von 1 um.
Wenn die Ausgabe $ y_1 $ ~ $ y_3 $ wie folgt ist,
Das Ergebnis durch die Softmax-Funktion ist
import numpy as np
def softmax(z):
y = np.exp(z) / np.sum(np.exp(z))
return y
z = np.array([1.2, 0.8, 0.3])
answer = softmax(z)
print(answer)
#Ausgabe
# [0.48148922 0.32275187 0.19575891]
Recommended Posts