○ Die Hauptpunkte dieses Artikels Beachten Sie, dass ich lineare Regression gelernt habe
Lineare Regression: ・ Algorithmus zur Vorhersage von Regressionsproblemen ・ Ausgedrückt als gerade Linie von y = b + ax ・ Finden Sie die Parameter, die den Fehler (Verlust) zwischen den einzelnen Daten und der vorhergesagten geraden Linie minimieren.
Lineares Regressionsmodell
#Lineare Regression
from sklearn.linear_model import LinearRegression
import matplotlib.pyplot as plt
%matplotlib inline
#Trainingsdaten
X = [[10.0], [8.0], [13.0], [9.0], [11.0], [14.0], [6.0], [4.0], [12.0], [7.0], [5.0]]
y = [8.04, 6.95, 7.58, 8.81, 8.33, 9.96, 7.24, 4.26, 10.84, 4.82, 5.68]
#Modellgenerierung, Schulung und Evaluierung
model = LinearRegression()
model.fit(X, y) #Lernen
print(model.coef_) #Neigung der Regressionslinie
print(model.intercept_) #Abschnitt der Regressionsgeraden
print('y = 0.5x + 3')
y_pred = model.predict(X) #Prognose
#Grafikanzeige
fig, ax = plt.subplots()
plt.xlabel("X")
plt.ylabel("y")
ax.scatter(X, y, color='blue', marker='s', label='data')
plt.plot(X, y_pred, "r-")
Ergebnis [0.50009091] 3.0000909090909094 y = 0.5x + 3
・ Obwohl die Anzahl der Daten gering ist, denke ich, dass sie die Daten so ausdrücken, wie sie sind. ・ Es gibt Support-Vektor-Maschinen, Regularisierung, neuronale Netze usw. als Algorithmen zur Vorhersage von Regressionsproblemen, aber dieser Algorithmus ist am einfachsten zu verstehen. ・ Ich denke, es ist leicht zu verstehen, weil ich als Student mit linearen Funktionen gelernt habe. Ich möchte, dass Sie der Grundausbildung mehr über diese Algorithmen lernen
Recommended Posts