Python Machine Learning Programming Kapitel 2 Klassifizierungsprobleme - Zusammenfassung des Trainingsalgorithmus für maschinelles Lernen
Letzte Geschichte
Python Machine Learning Programming Kapitel 1 Zusammenfassung
Einführung
--Was wird in diesem Kapitel behandelt
- Frühzeitiger Algorithmus für maschinelles Lernen
- Perceptron
- ADALINE
- Inhalt des Studiums
--Entwickeln Sie eine Intuition für Algorithmen für maschinelles Lernen
- Laden, Verarbeiten und Visualisieren von Daten
- Implementierter linearer Klassifizierungsalgorithmus in Python
--Beispielcode
- python-machine-learning-book/code/ch02/ch02.ipynb
――In der folgenden Zusammenfassung werden Code und Formel nicht beschrieben. Es tut mir Leid.
2.1 Künstliches Neuron
--Geschichte
- McCulloch-Pitts Neuron (1943)
- Der Zweck ist es, den Mechanismus des biologischen Gehirns aufzuklären
- Erstes Konzept vereinfachter Gehirnzellen
- Das erste Konzept von Perceptrons Lernregeln (1957)
- Frank Rosenblatt
- Nachdem der optimale Gewichtungskoeffizient automatisch gelernt wurde, wird er mit dem Eingangssignal multipliziert, um festzustellen, ob das Neuron ausgelöst wird oder nicht.
- Zweiwertige Klassifizierungsaufgabe
--Schlüsselwörter
- Gesamteingabe
--Aktivierungsfunktion
- Lernregeln
- Initialisieren Sie das Gewicht mit 0 oder einer kleinen Zufallszahl
- Führen Sie für jedes Trainingsmuster die folgenden Schritte aus
- Berechnen Sie den Ausgabewert y
- Aktualisieren Sie das Gewicht
- Perceptron-Konvergenzpotential
--Bedingungen
- Ist es linear trennbar?
-Ist die Lernrate klein genug?
- Wenn es nicht konvergiert
- Legen Sie die maximale Anzahl von Epochen und Fehlklassifizierungen fest
2.2 Implementieren Sie den Lernalgorithmus von Perceptron in Python
2.3 Training des Perceptron-Modells mit Iris-Datensatz
- Zweiwertige Klassifizierung mit Irisdaten
- Eine-gegen-alle-Methode zur Klassifizierung mehrerer Klassen
- Textreferenz
2.4 ADALINE und Lernkonvergenz
- Verbesserter Perceptron-Algorithmus
- Zeigen Sie speziell die Definition der Kostenfunktion und das Konzept ihrer Minimierung
- Unterschied zu Perceptron
- So aktualisieren Sie Gewichte
- Gewichtsaktualisierung basierend auf linearer Aktivierungsfunktion
--Quantor
- Vorhersage von Klassenetiketten
- Wird zur Berechnung von Modellfehlern und zur Aktualisierung von Gewichten verwendet
- Perceptron
- Zweiwertiges Klassenlabel
- ADALINE
- Kontinuierlicher Wert, der von der linearen Aktivierungsfunktion ausgegeben wird
2.5 Minimierung der Kostenfunktion durch Gradientenabstiegsmethode
--Zielfunktion
- Eine der Hauptkomponenten eines überwachten Algorithmus für maschinelles Lernen
- Während des Lernprozesses optimiert
--Kostenfunktion
- Zum Gewichtslernen verwendet
- Summe der Fehler im Quadrat
--Vorteile dieser linearen Aktivierungsfunktion mit kontinuierlichem Wert
- Unterscheidbar
- Konvexe Funktion
- Gefälle-Abstiegsmethode
2.5.1 ADALINE in Python implementieren
- Textreferenz
--Lernrate
- Zu groß
- Die Summe der quadratischen Fehler nimmt zu
- zu klein
- Eine beträchtliche Anzahl von Epochen ist erforderlich, um zu konvergieren
- Standardisierung
- Eine der Feature-Skalierungsmethoden
- Der Durchschnitt jeder Funktion wird auf 0 gesetzt
--Stellen Sie die Standardabweichung auf 1 ein.
2.6 Maschinelles Lernen in großem Maßstab und probabilistische Gradientenabstiegsmethode
- Batch-Gradienten-Abstiegsmethode
- Gesamttrainingsdatensatz
--Wenn der Datensatz zu groß ist, sind die Berechnungskosten erheblich.
--Probabilistische Gradientenabstiegsmethode (sequentielle Gradientenabstiegsmethode, Online-Gradientenabstiegsmethode)
- Basierend auf einer Datenprobe
- Einfach aus flachen Mindestwerten herauszukommen
- Sortieren Sie die Daten nach dem Zufallsprinzip
- Modelle können vor Ort trainiert werden, wenn neue Daten eintreffen (Online-Lernen)
--Mini Batch Learning
- Anwenden der Batch-Gradienten-Abstiegsmethode auf einen Teil der Trainingsdaten (z. B. 50)
Nachschlagewerk
Vielen Dank.