[PYTHON] [Übersetzung] scikit-learn 0.18 Benutzerhandbuch Inhaltsverzeichnis
google übersetzte http://scikit-learn.org/0.18/user_guide.html
Klicken Sie hier für das Tutorial
Benutzerhandbuch
1. Betreutes Lernen
1.1 Verallgemeinertes lineares Modell : us: untranslated
- Minimum-Quadrat-Methode
- Die Komplexität der Methode der kleinsten Quadrate
- Ridge Return
- Ridge Komplexität
- Einstellung der Normalisierungsparameter: Verallgemeinerte gegenseitige Überprüfung
- Minimaler absoluter Kontraktions- und Auswahloperator --Lasso
- Einstellung der Regularisierungsparameter
- Verwendung der gegenseitigen Überprüfung
- Informationsbasierte Modellauswahl
- Multitasking-Lasso
- Elastic Net
- Multitasking Elastic Net
- Minimale Winkelregression - LARS
- LARS Lasso
- Mathematische Vorschrift
- Streben nach orthogonalem Matching (OMP)
- Basianische Rückkehr
- Bage Anridge Return
- Automatische Validierung --ARD
- Logistische Rückgabe
- Probabilistischer Gradientenabstieg-SGD
- Perceptron
- Passiver aggressiver Algorithmus
- Robustheitsregression: Ausreißer und Modellierungsfehler
- Verschiedene Szenarien und nützliche Konzepte
2. RANSAC:RANdom SAmple Consensus
- Details des Algorithmus
- Theil-Sen Estimator: Generalisierungsmedienbasierter Schätzer
- Theoretische Überlegung
- Hoover Rückkehr
- Hinweise
- Polygonale Regression: Erweiterung des linearen Modells mit Basisfunktion
1.2 Lineare und quadratische Diskriminierungsanalyse nicht übersetzt
- Dimensionsreduktion mittels linearer Diskriminanzanalyse
- Mathematische Formulierung von LDA- und QDA-Klassifikatoren
- Mathematische Formulierung der LDA-Dimensionsreduktion
- Schrumpfung
- Schätzalgorithmus
- Klassifizierung
- Klassifizierung mehrerer Klassen
- Punktzahl und Wahrscheinlichkeit
- Unausgeglichenes Problem
- Zurück
- Dichteschätzung, Neuheitserkennung
- Komplex
- Praktische Tipps
- Kernelfunktion
- Benutzerdefinierter Kernel
- Verwenden Sie Python-Funktionen als Kernel
- Verwendung einer Gramm-Matrix
- RBF-Kernelparameter
- Mathematische Vorschrift
- SVC
- NuSVC
- SVR
- Implementierungsdetails
1.5 Probabilistischer Gradientenabstieg : us: untranslated
- Klassifizierung
- Zurück
- Probabilistischer Gradientenabstieg spärlicher Daten
- Komplex
- Praktische Tipps
- Mathematische Vorschrift
- SGD
- Implementierungsdetails
- Methode des nächsten Nachbarn ohne Lehrer
- Finden Sie den nächsten Nachbarn
- KDTree-Klasse und BallTree-Klasse
- Nächste Klassifizierung
- Nächste Regression
- Algorithmus für die Methode des nächsten Nachbarn
- Brute Force
- K-D-Baum
- Kugelbaum
- Auswahl des Algorithmus für den nächsten Nachbarn
- Wirkung von leaf_size
- Nächster Schwerpunktklassifikator
- Nächster Shrinken-Schwerpunkt
- Ungefähre Nachbarschaft in der Nähe
- Community sensibler Hashing-Wald
- Mathematische Beschreibung des lokalen Sensitivitäts-Hash
- Gaußsche Prozessregression (GPR)
- GPR-Beispiel
- GPR mit Geräuschpegelschätzung
- Vergleich der GPR- und Kernel-Ridge-Regression
- GPR der Mauna Loa CO2-Daten
- Gaußsche Prozessklassifikation (GPC)
- GPC-Beispiel
- Probabilistische Vorhersage durch GPC
- Diagramm der GPC im XOR-Datensatz
- Gaußsche Prozessklassifikation (GPC) im Iris-Datensatz
- Gaußscher Prozesskern
- Gaußsche Prozesskernel-API
- Grundlegender Kernel
- Kernel-Operator
- Kernel der Radial Base Function (RBF)
- Matteran-Kernel
- Angemessener sekundärer Kernel
- Exp-Sine-Squared-Kernel
- Dot Produktkernel
- Referenzen
- Legacy-Gauß-Prozess
- Beispiel für eine Einführungsregression
- Anpassen von verrauschten Daten
- Mathematische Vorschrift
- Erste Annahme
- Beste lineare unverzerrte Vorhersage (BLUP)
- Empirisch bester linearer Bias-Prädiktor (EBLUP)
- Korrelationsmodell
- Regressionsmodell
- Implementierungsdetails
- Gauss Naive Bayes
- Polygon Naive Bayes
- Bernouy Naive Bayes
- Modellanpassung für naive Buchten außerhalb des Kerns
- Klassifizierung
- Zurück
- Problem mit mehreren Ausgängen
- Komplex
- Praktische Tipps
- Baumalgorithmus: ID3, C4.5, C5.0 und CART
- Mathematische Vorschrift
- Klassifizierungskriterien
- Regressionskriterien
- Bagging Meta Estimator
- Randomisierter Baumwald
- Zufälliger Wald
- Hoch randomisierter Baum
- Parameter
- Parallelisierung
- Bewertung der funktionalen Bedeutung
- Vollständig zufällige Baumeinbettung
- AdaBoost
- Verwendung
- Gradient Tree Boost
- Klassifizierung
- Zurück
- Passen Sie zusätzliche schwache Lernende an
- Baumgrößenkontrolle
- Mathematische Vorschrift
- Verlustfunktion
- Normalisierung
- Schrumpfung
- Unterabtastung
- Interpretation
- Bedeutung der Funktion
- Teilweise abhängig
- VotingClassifier
- Die meisten Klassenbezeichnungen (Mehrheit / sorgfältige Auswahl)
- Verwendung
- Gewichtete Durchschnittswahrscheinlichkeit (Soft Voting)
- Verwenden Sie den Abstimmungsklassifizierer mit der Rastersuche
- Verwendung
- Klassifizierungsformat für mehrere Etiketten
- Eine Pause
- Lernen in mehreren Klassen
- Multi-Label-Lernen
- 1 zu 1
- Lernen in mehreren Klassen
- Fehlerkorrektur-Ausgabecode
- Lernen in mehreren Klassen
- Regression mit mehreren Ausgaben
- Klassifizierung mehrerer Ausgänge
- Löschen Sie Features mit geringer Streuung
- Auswahl der univariaten Funktion
- Entfernen rekursiver Features
- Funktionsauswahl mit SelectFromModel
- L1-basierte Funktionsauswahl
- Randomisiertes Sparse-Modell
- Baumbasierte Funktionsauswahl
- Auswahl der Funktionen als Teil der Pipeline
- Etikettenausbreitung
1.17. Neuronales Netzwerkmodell (mit Lehrer) : us: untranslated
- Mehrschichtiges Perceptron
- Klassifizierung
- Zurück
- Normalisierung
- Algorithmus
- Komplex
- Mathematische Vorschrift
- Praktische Tipps
- Mehr Kontrolle mit warm_start
2. Unbeaufsichtigtes Lernen
- Gauß gemischt
- Vor- und Nachteile der Gaußschen Mischung
- Vorteile
- Nachteile
2 Auswahl der Anzahl der Komponenten im klassischen Gaußschen Mischmodell
- Schätzalgorithmus maximiert den erwarteten Wert
- Variante Bayes Gauss gemischt
- Schätzalgorithmus: Varianteninferenz
- Vor- und Nachteile der Transformationsinferenz mit der Bayes'schen Gaußschen Mischung
- Vorteile
- Nachteile
- Diricre-Prozess
- Einleitung
- Isomap
- Komplex
- Lokal lineare Einbettung
- Komplex
- Lokal modifizierte lineare Einbettung
- Komplex
- Einzigartige Abbildung der Hessen-Matrix
- Komplex
- Spektrale Einbettung
- Komplex
- Lokale Tangentenraumausrichtung
- Komplex
- Mehrdimensionale Skalierung (MDS)
- Metrisches MDB
- Nicht metrisches MDB
- t-verteilte probabilistische Nachbarschaftseinbettung (t-SNE)
- t-SNE-Optimierung
- Verbrennt hat t-SNE
- Praktische Tipps
- Übersicht über die Clustering-Methode
- K Durchschnitt
- Mini-Batch-K-Mittel
- Affinitätsausbreitung
- Durchschnittliche Schicht
- Spektrum-Clustering
- Unterschied in der Etikettenzuweisungsmethode
- Hierarchisches Clustering
- Verschiedene Verknüpfungstypen: Ward, vollständige durchschnittliche Verknüpfung
- Fügen Sie eine Verbindungsbeschränkung hinzu
- Ändern Sie die Metrik
- Dichtebasiertes räumliches Clustering (DBSCAN)
- Hierarchisch ausgewogene iterative Reduktion und Clusterbildung (BIRCH)
- Bewertung der Clusterleistung
- Angepasster Landindex
- Vorteile
- Nachteile
- Mathematische Vorschrift
- Gegenseitige informationsbasierte Bewertung
- Vorteile
- Nachteile
- Mathematische Vorschrift
- Homogenität, Vollständigkeit und V-Skala
- Vorteile
- Nachteile
- Mathematische Vorschrift
- Fowlkes-Mallows-Punktzahl
- Vorteile
- Nachteile
- Silhouette-Koeffizient
- Vorteile
- Nachteile
- Karinsky Harabaz Index
- Vorteile
- Nachteile
- Spektrale Co-Clustering
- Mathematische Vorschrift
- Spektrum durch Clustering
- Mathematische Vorschrift
- Bi-Clustering-Bewertung
- Hauptkomponentenanalyse (PCA)
- Genaue PCA und probabilistische Interpretation
- Inkrementelle PCA
- PCA mit randomisierter SVD
- Kernel PCA
- Sparse-Hauptkomponentenanalyse (SparsePCA und MiniBatchSparsePCA)
- Zerlegung der Kürzungssingularität und Analyse der latenten Bedeutung
- Wörterbuch lernen
- Sparsame Codierung mit einem vorberechneten Wörterbuch
- Allgemeines Wörterbuchlernen
- Mini-Batch-Wörterbuch lernen
- Faktoranalyse
- Unabhängige Komponentenanalyse (ICA)
- Nicht negative Matrixzersetzung (NMF oder NNMF)
- Potenzielle Richtungszuweisung (LDA)
- Empirische Co-Dispersion
- Reduktion der Co-Verteilung
- Grundkontraktion
- Ledoit-Wolf-Schrumpf
- Oracle ungefähre Kontraktion
- Sparse inverse Co-Dispersion
- Robuste Kovarianzschätzung
- Minimale Kovarianzmatrixformel
- Erkennung von Neuheiten
- Ausreißererkennung
- Installieren Sie den ovalen Umschlag
- Isolationswald
3.1 Klasse SVM vs Elliptical Envelope vs Isolation Forest
- Dichteschätzung: Histogramm
- Schätzung der Kerneldichte
2.9. Neuronales Netzwerkmodell (ohne Lehrer) : us: untranslated
- Begrenzte Boltzmann-Maschine
- Grafisches Modell und Parametrierung
- Bernoulli Limited Boltsman Machine
- Probabilistisches wahrscheinlichstes Lernen
3. Modellauswahl und -bewertung
- Berechnung kreuzvalidierter Metriken
- Erhalten von Prognosen durch Kreuzvalidierung
- Cross Verification Iterator
- i. D. Kreuzvalidierungs-Iteratordaten
- K mal
2. Leave One Out(LOO)
3. Leave P Out(LPO)
- Zufällige gegenseitige Überprüfung des Ersatzes a.k.a. Shuffle & Split
- Iterator für gegenseitige Validierung mit Hierarchie basierend auf der Klassenbezeichnung
- K-mal geschichtet
- Layered Shuffle Split
- Iterator für gegenseitige Validierung für gruppierte Daten
- Gruppe k mal
- Verlassen Sie eine Gruppe
- Verlassen Sie die P-Gruppe
- Gruppen-Shuffle-Split
- Vordefinierte Fold-Splits / Validierungs-Sets
- Gegenseitige Überprüfung von Zeitreihendaten
- Zeitreiheneinteilung
- Vorsichtsmaßnahmen mischen
- Gegenseitige Überprüfung und Modellauswahl
- Schließen Sie die Rastersuche ab
- Randomisierte Parameteroptimierung
- Tipps zur Parametersuche
- Festlegen objektiver Metriken
- Zusammengesetzte Schätzungen und Parameterraum
- Modellauswahl: Entwicklung und Bewertung
- Parallel
- Robustheit gegenüber Behinderungen
- Alternative zur Brute-Force-Parametersuche
- Modellspezifische gegenseitige Validierung
- Informationsstandard
- Andere Schätzer
- Bewertungsparameter: Definition der Modellbewertungsregel
- Allgemeiner Fall: vordefinierter Wert
- Definieren Sie eine Bewertungsstrategie aus einer Metrikfunktion
- Implementierung Ihres eigenen Scoring-Objekts
- Klassifizierungsmetrik
- Von binär zu Multi-Class und Multi-Label
- Genauigkeitsbewertung
- Cohens Kappa
- Verwirrungsmatrix
- Klassifizierungsbericht
- Summenverlust
- Jacquard-Ähnlichkeitskoeffizientenbewertung
- Präzision, Rückruf, F-Maßnahmen
- Binäre Klassifizierung
- Klassifizierung von Mehrfachklassen und Mehrfachetiketten
- Scharnierverlust
- Protokollverlust
- Matthews-Korrelationskoeffizient
- Betriebseigenschaften des Empfängers (ROC)
- Null Verlust
- Verlust der Verschnaufpause
- Multi-Label-Ranking-Metrik
- Abdeckungsfehler
- Durchschnittliche Genauigkeit des Etikettenrangs
- Rangverlust
- Regressionsmetrik
- Beschriebener Varianzwert
- Durchschnittlicher absoluter Fehler
- Durchschnittlicher quadratischer Fehler
- Zentraler absoluter Fehler
- R²-Punktzahl, Entscheidungsfaktor
- Clustering-Metrik
- Dummy-Schätzer
- Persistenzbeispiel
- Sicherheits- und Wartbarkeitsgrenzen
- Überprüfungskurve
- Lernkurve
4. Datensatzkonvertierung
- Pipeline: Kettenschätzer
- Verwendung
- Hinweis
- FeatureUnion: Zusammengesetzter Feature-Space
- Verwendung
- Laden von Funktionen aus Diktaten
- Feature-Hash
- Implementierungsdetails
- Extraktion von Textfunktionen
- Wortnotation
- Seltenheit
- Verwendung des allgemeinen Vektorisierers
- Gewichtung des Tf-idf-Terms
- Dekodieren von Textdateien
- Anwendungen und Beispiele
- Einschränkungen des Ausdrucks in Bag of Words
- Vektorisieren Sie einen großen Textkorpus mit Hash-Tricks
- Führen Sie mit HashingVectorizer eine Out-of-Core-Skalierung durch
- Benutzerdefinierte Vektorisierungsklasse
- Extraktion von Bildmerkmalen
- Patch-Extraktion
- Bildkonnektivitätsdiagramm
- Standardisierung, durchschnittliche Entfernung und Dispersionsskalierung
- Skalieren Sie die Funktionen auf den Bereich
- Sparsame Datenskalierung
- Skalierung von Daten mit Ausreißern
- Kernelmatrix zentrieren
- Normalisierung
- Binarisierung
- Feature-Binärisierung
- Codieren Sie die Funktion der Kategorie
- Vervollständigung fehlender Werte
- Generieren Sie polymorphe Merkmale
- Kundenspezifischer Transformator
- PCA: Hauptkomponentenanalyse
- Zufällige Projektion
- Merkmalsagglomeration
- Johnson-Lindenstrauss-Nachtrag
- Gaußsche Zufallsprojektion
- Sparse zufällige Projektion
- Nystroem-Methode zur Kernel-Approximation
- Kernel der radialen Basisfunktion
- Additive Chi Squared Kernel
- Schräger Chi-Quadrat-Kernel
- Details der Mathematik
- Kosinusähnlichkeit
- Linearer Kernel
- Polygonaler Kernel
- Sigmaid-Kernel
- RBF-Kernel
- Laplace-Kernel
- Chi-Quadrat-Kernel
- Binarisierung von Etiketten
- Etikettencodierung
5. Dienstprogramm zum Lesen von Datensätzen : us: untranslated
- Allgemeine Datensatz-API
- Spielzeugdatensatz
- Beispielbild
- Probengenerator
- Generator zur Klassifizierung und Clusterbildung
- Einzeletikett
- Multi-Label
3. Biclustering
- Regressionsgenerator
- Generator für vielfältiges Lernen
- Generator zerlegen
- Datensatz im Format svmlight / libsvm
- Laden aus einem externen Datensatz
- Olivetti steht vor dem Datensatz
- 20 Newsgroup-Textdatensätze
- Verwendung
- Konvertieren Sie Text in Vektor
- Textfilterung für ein realistischeres Training
- Laden Sie den Datensatz aus dem Repository von mldata.org herunter
- Beschriftete Gesichter im Datensatz zur Erkennung wilder Gesichter
- Verwendung
- Beispiel
- Abholzung
- RCV1-Datensatz
- Boston Home Price Dataset
- Hinweis
- Datenbank für Brustkrebs in Wisconsin (Diagnose)
- Hinweis
- Referenzen
- Diabetes-Datensatz
- Hinweis
- Optische Erkennung handschriftlicher numerischer Daten
- Hinweis
- Referenzen
- Iris-Pflanzendatenbank
- Hinweis
- Referenzen
- Linnerrud-Datensatz
- Hinweis
- Referenzen
6. Computational Expansion Strategy: Größere Daten : us: untranslated
- Skalieren von Instanzen mithilfe von Out-of-Core-Lernen
- Streaming-Instanz
- Merkmalsextraktion
- Inkrementelles Lernen
- Beispiel
- Hinweise
- Voraussichtliche Latenz
- Bulk vs. Atomic Mode
- Auswirkung der Anzahl der Funktionen
- Auswirkung der Darstellung der Eingabedaten
- Auswirkungen der Modellkomplexität
- Latenz der Merkmalsextraktion
- Voraussichtlicher Durchsatz
- Tipps und Techniken
- Lineare Algebra-Bibliothek
- Modellkomprimierung
- Ändern Sie die Form des Modells
- Verknüpfen
Klicken Sie hier für das Tutorial
© 2010 - 2016, Entwickler von Scikit-Learn (BSD-Lizenz).