Python Machine Learning Programming Kapitel 2 Klassifizierungsprobleme - Zusammenfassung des Trainingsalgorithmus für maschinelles Lernen
        
      
      
   
      
Letzte Geschichte
Python Machine Learning Programming Kapitel 1 Zusammenfassung
Einführung
--Was wird in diesem Kapitel behandelt
- Frühzeitiger Algorithmus für maschinelles Lernen
 
- Perceptron
- ADALINE
 
- Inhalt des Studiums
--Entwickeln Sie eine Intuition für Algorithmen für maschinelles Lernen
 
- Laden, Verarbeiten und Visualisieren von Daten
 
- Implementierter linearer Klassifizierungsalgorithmus in Python
 
--Beispielcode
- python-machine-learning-book/code/ch02/ch02.ipynb
――In der folgenden Zusammenfassung werden Code und Formel nicht beschrieben. Es tut mir Leid.
2.1 Künstliches Neuron
--Geschichte
- McCulloch-Pitts Neuron (1943)
 
- Der Zweck ist es, den Mechanismus des biologischen Gehirns aufzuklären
 
- Erstes Konzept vereinfachter Gehirnzellen
 
- Das erste Konzept von Perceptrons Lernregeln (1957)
- Frank Rosenblatt
 
- Nachdem der optimale Gewichtungskoeffizient automatisch gelernt wurde, wird er mit dem Eingangssignal multipliziert, um festzustellen, ob das Neuron ausgelöst wird oder nicht.
 
- Zweiwertige Klassifizierungsaufgabe
--Schlüsselwörter
 
- Gesamteingabe
--Aktivierungsfunktion
 
- Lernregeln
 
- Initialisieren Sie das Gewicht mit 0 oder einer kleinen Zufallszahl
 
- Führen Sie für jedes Trainingsmuster die folgenden Schritte aus
 
- Berechnen Sie den Ausgabewert y
 
- Aktualisieren Sie das Gewicht
 
- Perceptron-Konvergenzpotential
--Bedingungen
 
- Ist es linear trennbar?
-Ist die Lernrate klein genug?
 
- Wenn es nicht konvergiert
 
- Legen Sie die maximale Anzahl von Epochen und Fehlklassifizierungen fest
 
2.2 Implementieren Sie den Lernalgorithmus von Perceptron in Python
2.3 Training des Perceptron-Modells mit Iris-Datensatz
- Zweiwertige Klassifizierung mit Irisdaten
 
- Eine-gegen-alle-Methode zur Klassifizierung mehrerer Klassen
 
- Textreferenz
 
2.4 ADALINE und Lernkonvergenz
- Verbesserter Perceptron-Algorithmus
 
- Zeigen Sie speziell die Definition der Kostenfunktion und das Konzept ihrer Minimierung
 
- Unterschied zu Perceptron
 
- So aktualisieren Sie Gewichte
 
- Gewichtsaktualisierung basierend auf linearer Aktivierungsfunktion
--Quantor
 
- Vorhersage von Klassenetiketten
 
- Wird zur Berechnung von Modellfehlern und zur Aktualisierung von Gewichten verwendet
 
- Perceptron
 
- Zweiwertiges Klassenlabel
- ADALINE
 
- Kontinuierlicher Wert, der von der linearen Aktivierungsfunktion ausgegeben wird
 
2.5 Minimierung der Kostenfunktion durch Gradientenabstiegsmethode
--Zielfunktion
- Eine der Hauptkomponenten eines überwachten Algorithmus für maschinelles Lernen
 
- Während des Lernprozesses optimiert
--Kostenfunktion
 
- Zum Gewichtslernen verwendet
 
- Summe der Fehler im Quadrat
--Vorteile dieser linearen Aktivierungsfunktion mit kontinuierlichem Wert
 
- Unterscheidbar
 
- Konvexe Funktion
 
- Gefälle-Abstiegsmethode
 
2.5.1 ADALINE in Python implementieren
- Textreferenz
--Lernrate
 
- Zu groß
 
- Die Summe der quadratischen Fehler nimmt zu
 
- zu klein
 
- Eine beträchtliche Anzahl von Epochen ist erforderlich, um zu konvergieren
 
- Standardisierung
 
- Eine der Feature-Skalierungsmethoden
 
- Der Durchschnitt jeder Funktion wird auf 0 gesetzt
--Stellen Sie die Standardabweichung auf 1 ein.
 
2.6 Maschinelles Lernen in großem Maßstab und probabilistische Gradientenabstiegsmethode
- Batch-Gradienten-Abstiegsmethode
 
- Gesamttrainingsdatensatz
--Wenn der Datensatz zu groß ist, sind die Berechnungskosten erheblich.
--Probabilistische Gradientenabstiegsmethode (sequentielle Gradientenabstiegsmethode, Online-Gradientenabstiegsmethode)
 
- Basierend auf einer Datenprobe
 
- Einfach aus flachen Mindestwerten herauszukommen
 
- Sortieren Sie die Daten nach dem Zufallsprinzip
 
- Modelle können vor Ort trainiert werden, wenn neue Daten eintreffen (Online-Lernen)
--Mini Batch Learning
 
- Anwenden der Batch-Gradienten-Abstiegsmethode auf einen Teil der Trainingsdaten (z. B. 50)
 
Nachschlagewerk
Vielen Dank.