○ Les principaux points de cet article Notez que j'ai appris la régression linéaire
Régression linéaire: ・ Algorithme de prédiction des problèmes de régression ・ Exprimé comme une ligne droite de y = b + ax ・ Trouvez les paramètres qui minimisent l'erreur (perte) entre chaque donnée et la ligne droite prédite. -Utiliser l'erreur quadratique moyenne pour mesurer l'erreur (la moyenne des carrés de la distance entre la ligne droite et chaque donnée) -Il est possible de modéliser la relation dans laquelle la variable objective devient plus grande (plus petite) à mesure que la variable explicative devient plus grande. ・ Apprendre avec l'enseignant
Modèle de régression linéaire
#Régression linéaire
from sklearn.linear_model import LinearRegression
import matplotlib.pyplot as plt
%matplotlib inline
#Données d'entraînement
X = [[10.0], [8.0], [13.0], [9.0], [11.0], [14.0], [6.0], [4.0], [12.0], [7.0], [5.0]]
y = [8.04, 6.95, 7.58, 8.81, 8.33, 9.96, 7.24, 4.26, 10.84, 4.82, 5.68]
#Génération, formation et évaluation de modèles
model = LinearRegression()
model.fit(X, y) #Apprentissage
print(model.coef_) #Inclinaison de la droite de régression
print(model.intercept_) #Section de la droite de régression
print('y = 0.5x + 3')
y_pred = model.predict(X) #Prévoir
#affichage graphique
fig, ax = plt.subplots()
plt.xlabel("X")
plt.ylabel("y")
ax.scatter(X, y, color='blue', marker='s', label='data')
plt.plot(X, y_pred, "r-")
résultat [0.50009091] 3.0000909090909094 y = 0.5x + 3
・ Bien que le nombre de données soit petit, je pense qu'il exprime les données telles quelles. ・ Il existe des machines vectorielles de support, des régularisations, des réseaux de neurones, etc. comme algorithmes pour prédire les problèmes de régression, mais cet algorithme est le plus simple à comprendre. ・ Je pense que c'est facile à comprendre car j'ai appris avec des fonctions linéaires quand j'étais étudiant. Je veux que vous ajoutiez plus d'étude de ces algorithmes à l'éducation essentielle
Recommended Posts