Suite de la session précédente.
Un rappel sur la première moitié du chapitre 2 du livre Machine Learning Beginning with Python. Je pense que cet article est un gâchis sauf si vous lisez "L'apprentissage automatique à partir de Python". Achetons-le et étudions ensemble!
Lorsque vous apprenez quelque chose, vous devez d'abord apprendre la langue utilisée dans cette étude ou ce domaine avant de pouvoir parler ou discuter. En tant que débutant, je ne peux pas m'engager sur cette route sans d'abord grimper petit à petit ce grand mur. C'est un peu compliqué, mais je vais vous expliquer les mots que j'entends pour la première fois en même temps.
L'apprentissage automatique avec un enseignant peut être grossièrement divisé ・ Classification de classe · Revenir Peut être classé en (il s'agit d'une classification).
La classification des iris effectuée au chapitre 1 et le jugement du courrier SPAM sont également classés.
D'autre part, la régression fait référence à l'apprentissage automatique qui effectue une prédiction de valeur continue. Par exemple · Le rendement des cultures ・ Prévisions de revenus annuels ・ Fluctuation du cours de l'action Ou quelque chose.
L'objectif de l'apprentissage automatique est de généraliser. Si le modèle de prédiction créé à partir des données d'apprentissage peut prédire avec précision des données inconnues, le modèle est dit généralisé. Je pense que ce n'est pas grave si le modèle se sent bien.
La création d'un modèle qui donne plus d'informations que nécessaire est appelée sur-adaptation. Le contraire est appelé manque de conformité. Si la quantité d'informations est augmentée en raison d'une conformité insuffisante, la précision augmentera progressivement, mais si la quantité d'informations dépasse une certaine quantité, elle deviendra trop conforme et commencera à diminuer. C'est le modèle requis par le modèle qui donne le sweet spot (valeur maximale de précision) qui montre les meilleures performances de généralisation.
# Génération d'ensembles de données
X, y = mglearn.datasets.make_forge()
Cette fois
DeprecationWarning: Function make_blobs is deprecated; Please import make_blobs directly from scikit-learn
warnings.warn(msg, category=DeprecationWarning)
Un message d'avertissement apparaîtra, mais je l'ignorerai pour le moment au fur et à mesure. Après cela, lors de l'utilisation de mglearn, de nombreux textes d'avertissement apparaissent, mais ignorez-les tous.
Université du Wisconsin C'est une excellente école qui figure dans le classement mondial des universités et qui a produit des lauréats du prix Nobel. Si vous lisez ce livre, vous pourrez peut-être vous faire des amis à l'Université du Wisconsin. "Ah, ce gars du Wisconsin" "Oh ouais, celui qui a un cancer du sein!" C'est comme ça.
Comment utiliser les fonctions Python et zip: Obtenez plusieurs éléments de liste à la fois Voir ici comment utiliser la fonction Zip.
Le produit entre les quantités de caractéristiques est appelé interaction.
Une méthode pour référencer les k données les plus proches et décider de l'étiquette par vote (vote majoritaire). Comme il n'y a pas de poids en raison de la distance du contexte, il est possible que l'étiquette soit différente de la plus proche. La limite de la classe peut être déterminée en modifiant les deux quantités d'entités. Cette église est appelée la frontière de décision. Plus la valeur de k est élevée, plus la frontière de décision est lisse et plus la valeur de k est petite, plus le modèle peut être pris en charge complexe. Dans le livre, le nombre de k a été modifié pour trouver le nombre de références avec la plus grande précision.
k-Return version de la méthode la plus proche. C'est une méthode pour adopter la valeur de la plus proche quand k = 1 et la valeur moyenne quand elle est 3 ou 9. Je pense que c'est le moyen le plus simple auquel on puisse penser.
Avantages: Facile à comprendre, précision assez élevée sans réglage Inconvénients: les ensembles d'entraînement plus volumineux ralentissent, les ensembles de données rares fonctionnent mal Pour cette raison, il est rarement utilisé dans la pratique.
C'est la méthode des moindres carrés. Une méthode pour adopter des paramètres qui minimisent l'erreur lorsqu'ils sont au carré.
Tout à coup, il est devenu peu clair. Il y a trop peu d'explications pour la régularisation L2. .. .. Surapprentissage et régularisation L2 Si vous consultez cette page, cela aurait été plus facile à imaginer. en bref, "Incliner" w Pour optimiser non seulement pour les prédictions sur les données d'entraînement, mais aussi pour d'autres contraintes (← je ne suis pas sûr ici) Je veux que w soit plus petit que l'ajustement aux données d'entraînement (résultats obtenus par la méthode des moindres carrés). Par conséquent, une pénalité de somme des carrés est donnée à la taille de w pour la rendre plus petite exprès.
Plus la pénalité est petite, plus elle est proche d'un modèle linéaire, Si la pénalité est importante, w s'approche de 0. En d'autres termes, si vous souhaitez généraliser, vous pouvez augmenter la pénalité, mais combien vous devez augmenter dépend du modèle.
Ouaip. Je ne sais pas comment le dire moi-même.
Lasso C'est une pénalité pour la somme des valeurs absolues, mais à ce moment-là, il semble que le coefficient ait tendance à être 0. Il a été écrit pour être utilisé lorsque vous souhaitez réduire des variables. Je ne suis pas sûr, alors je vais l'étudier en détail et écrire un article.
Le modèle linéaire lors de la classification se classe selon que la valeur de la fonction est supérieure ou inférieure à 0. La régression logistique est incluse dans la régression, mais cela semble être un algorithme de classification. La différence entre SVC linéaire et régression logistique n'était pas claire.
Une approche un à l'autre (un contre le repos) a été expliquée. Il est classé en le classant dans une classe et dans l'autre, et en le faisant pour toutes les classes. Je comprends ce que vous dites, mais au final, il semble que vous n'utilisez que scicit-learn et que vous n'approfondissez pas votre compréhension. .. .. Je sais comment l'utiliser, donc je suppose que c'est à partir de là que je peux m'habituer.
Recommended Posts