[PYTHON] Lernen mit dem Lehrer (Rückkehr) 2 Advanced Edition

Aidemy 2020/10/28

Einführung

Hallo, es ist ja! Ich bin eine knusprige Literaturschule, aber ich war an den Möglichkeiten der KI interessiert, also ging ich zur AI-spezialisierten Schule "Aidemy", um zu studieren. Ich möchte das hier gewonnene Wissen mit Ihnen teilen und habe es in Qiita zusammengefasst. Ich freue mich sehr, dass viele Menschen den vorherigen zusammenfassenden Artikel gelesen haben. Vielen Dank! Dies ist der zweite Beitrag des überwachten Lernens. Freut mich, dich kennenzulernen.

Was diesmal zu lernen ・ Informationen zur Modellverallgemeinerung

Verallgemeinerung des Modells

(Rückblick) Was ist Verallgemeinerung?

Regulierung

Lasso kehrt zurück

-__ Lasso-Regression __ bezieht sich auf ein Regressionsmodell, das die L1-Regularisierung verwendet. Die -L1-Regularisierung ist sehr effektiv, wenn viele zusätzliche Informationen vorhanden sind. Wenn beispielsweise die Anzahl der Parameter (Anzahl der Spalten) im Verhältnis zur Anzahl der __ Daten (Anzahl der Zeilen) groß ist, wird die Lasso-Regression verwendet. -Wie man die Lasso-Regression verwendet, sollte wie folgt aussehen: __model = Lasso () __.

Ridge kehrt zurück

-__ Ridge-Regression __ bezieht sich auf ein Regressionsmodell, das die L2-Regularisierung verwendet. ・ Die L2-Regularisierung ist leicht zu verallgemeinern, da der Koeffizientenbereich eine Obergrenze hat. -Die Verwendung der Ridge-Regression sollte wie folgt aussehen: __model = Ridge () __.

ElasticNet-Regression

-__ ElasticNet-Regression__ bezieht sich auf ein Regressionsmodell, das eine Kombination aus L1-Regularisierung und L2-Regularisierung verwendet. -Es hat einen großen Vorteil, weil es einen Punkt hat, der __ Informationen der L1-Regularisierung __ auswählt, und einen Punkt, an dem es einfach ist, __ der L2-Regularisierung __ zu verallgemeinern.

・ Führen Sie die oben genannten drei Regressionsmodelle aus![Screenshot 2020-10-28 22.59.48.png](https://qiita-image-store.s3.ap-northeast-1.amazonaws.com/0/698700/ 7aa30b99-e728-d0ab-7ade-8603f2fcca23.png)

・ Ergebnis![Screenshot 2020-10-28 22.58.30.png](https://qiita-image-store.s3.ap-northeast-1.amazonaws.com/0/698700/7994a0d0-686a-64f1- ee41-ca25cb2e5832.png)

Zusammenfassung

-Es gibt __ Regularisierung__ als Mittel zur Verallgemeinerung in der linearen Regression. ・ Es gibt zwei Arten der Regularisierung: __L1-Regularisierung und L2-Regularisierung __. Die erstere ist __Lasso-Regression __, die letztere ist Ridge-Regression und die Regression, die beide verwendet, ist _ElasticNet-Regression. Namens _.

Diese Zeit ist vorbei. Vielen Dank für das Lesen bis zum Ende.

Recommended Posts

Lernen mit dem Lehrer (Rückkehr) 2 Advanced Edition
Lernen mit einem Lehrer (Rückkehr) 1 Grundlagen
Python: Überwachtes Lernen (Rückkehr)
Maschinelles Lernen: Überwacht - Lineare Regression
Überwachtes maschinelles Lernen (Klassifikation / Regression)
Grundlagen des Lernens mit einem Lehrer Teil 1 - Einfache Regression - (Hinweis)
Grundlagen des Lernens mit einem Lehrer Teil 3 - Multiple Regression (Implementierung) - (Anmerkungen) -
Maschinelles Lernen: Betreut --AdaBoost
Logistische Regression beim maschinellen Lernen
Lineare Regression des maschinellen Lernens
Stärkung des Lernens 1 Einführungsausgabe
Python: Überwachtes Lernen (Klassifizierung)
Python: Überwachtes Lernen: Hyperparameter Teil 1
Überwachtes Lernen 3 Hyperparameter und Abstimmung (2)
Verstehe maschinelles Lernen ~ Ridge Regression ~.
Lernen mit dem Lehrer 1 Grundlagen des Lernens mit dem Lehrer (Klassifizierung)
Maschinelles Lernen: Überwacht - Support Vector Machine
Immobilienpreise: Fortgeschrittene Regressionstechniken
Stapelvorlage für maschinelles Lernen (Rückgabe)
Überwachtes Lernen 2 Hyperparameter und Abstimmung (1)
Maschinelles Lernen: Überwacht - Entscheidungsbaum
Algorithmus für maschinelles Lernen (logistische Regression)
Anfänger des maschinellen Lernens versuchen eine lineare Regression
Algorithmus für maschinelles Lernen (multiple Regressionsanalyse)
Logistic Return (für Anfänger) -Code Edition-
Deep Learning durch Implementierung 1 gelernt (Return Edition)
Einfach zu bedienende E-Cell 4 Advanced Edition
Deep Strengthing Learning 3 Praktische Ausgabe: Block Breaking
Einführung in Deep Learning ~ Dropout Edition ~
Lineare Regression (für Anfänger) -Code Edition-
Maschinelles Lernen: Überwacht - Lineare Diskriminanzanalyse
Ridge Return (für Anfänger) -Code Edition-