[PYTHON] [Übersetzung] scikit-learn 0.18 Benutzerhandbuch Inhaltsverzeichnis

google übersetzte http://scikit-learn.org/0.18/user_guide.html Klicken Sie hier für das Tutorial


Benutzerhandbuch

1. Betreutes Lernen

1.1 Verallgemeinertes lineares Modell : us: untranslated

  1. Minimum-Quadrat-Methode
  2. Die Komplexität der Methode der kleinsten Quadrate
  3. Ridge Return
  4. Ridge Komplexität
  5. Einstellung der Normalisierungsparameter: Verallgemeinerte gegenseitige Überprüfung
  6. Minimaler absoluter Kontraktions- und Auswahloperator --Lasso
  7. Einstellung der Regularisierungsparameter
  8. Verwendung der gegenseitigen Überprüfung
  9. Informationsbasierte Modellauswahl
  10. Multitasking-Lasso
  11. Elastic Net
  12. Multitasking Elastic Net
  13. Minimale Winkelregression - LARS
  14. LARS Lasso
  15. Mathematische Vorschrift
  16. Streben nach orthogonalem Matching (OMP)
  17. Basianische Rückkehr
  18. Bage Anridge Return
  19. Automatische Validierung --ARD
  20. Logistische Rückgabe
  21. Probabilistischer Gradientenabstieg-SGD
  22. Perceptron
  23. Passiver aggressiver Algorithmus
  24. Robustheitsregression: Ausreißer und Modellierungsfehler
  25. Verschiedene Szenarien und nützliche Konzepte 2. RANSAC:RANdom SAmple Consensus
  26. Details des Algorithmus
  27. Theil-Sen Estimator: Generalisierungsmedienbasierter Schätzer
  28. Theoretische Überlegung
  29. Hoover Rückkehr
  30. Hinweise
  31. Polygonale Regression: Erweiterung des linearen Modells mit Basisfunktion

1.2 Lineare und quadratische Diskriminierungsanalyse nicht übersetzt

  1. Dimensionsreduktion mittels linearer Diskriminanzanalyse
  2. Mathematische Formulierung von LDA- und QDA-Klassifikatoren
  3. Mathematische Formulierung der LDA-Dimensionsreduktion
  4. Schrumpfung
  5. Schätzalgorithmus

1.3. Kernel Ridge Return : us: Untranslated

1.4. Support Vector Machine: jp:

  1. Klassifizierung
  2. Klassifizierung mehrerer Klassen
  3. Punktzahl und Wahrscheinlichkeit
  4. Unausgeglichenes Problem
  5. Zurück
  6. Dichteschätzung, Neuheitserkennung
  7. Komplex
  8. Praktische Tipps
  9. Kernelfunktion
  10. Benutzerdefinierter Kernel
  11. Verwenden Sie Python-Funktionen als Kernel
  12. Verwendung einer Gramm-Matrix
  13. RBF-Kernelparameter
  14. Mathematische Vorschrift
    1. SVC
    2. NuSVC
    3. SVR
  15. Implementierungsdetails

1.5 Probabilistischer Gradientenabstieg : us: untranslated

  1. Klassifizierung
  2. Zurück
  3. Probabilistischer Gradientenabstieg spärlicher Daten
  4. Komplex
  5. Praktische Tipps
  6. Mathematische Vorschrift
    1. SGD
  7. Implementierungsdetails

1.6 Nächste Methode : us: untranslated

  1. Methode des nächsten Nachbarn ohne Lehrer
  2. Finden Sie den nächsten Nachbarn
  3. KDTree-Klasse und BallTree-Klasse
  4. Nächste Klassifizierung
  5. Nächste Regression
  6. Algorithmus für die Methode des nächsten Nachbarn
  7. Brute Force
  8. K-D-Baum
  9. Kugelbaum
  10. Auswahl des Algorithmus für den nächsten Nachbarn
  11. Wirkung von leaf_size
  12. Nächster Schwerpunktklassifikator
  13. Nächster Shrinken-Schwerpunkt
  14. Ungefähre Nachbarschaft in der Nähe
  15. Community sensibler Hashing-Wald
  16. Mathematische Beschreibung des lokalen Sensitivitäts-Hash

1.7. Gaußscher Prozess : us: untranslated

  1. Gaußsche Prozessregression (GPR)
  2. GPR-Beispiel
  3. GPR mit Geräuschpegelschätzung
  4. Vergleich der GPR- und Kernel-Ridge-Regression
  5. GPR der Mauna Loa CO2-Daten
  6. Gaußsche Prozessklassifikation (GPC)
  7. GPC-Beispiel
  8. Probabilistische Vorhersage durch GPC
  9. Diagramm der GPC im XOR-Datensatz
  10. Gaußsche Prozessklassifikation (GPC) im Iris-Datensatz
  11. Gaußscher Prozesskern
  12. Gaußsche Prozesskernel-API
  13. Grundlegender Kernel
  14. Kernel-Operator
  15. Kernel der Radial Base Function (RBF)
  16. Matteran-Kernel
  17. Angemessener sekundärer Kernel
  18. Exp-Sine-Squared-Kernel
  19. Dot Produktkernel
  20. Referenzen
  21. Legacy-Gauß-Prozess
  22. Beispiel für eine Einführungsregression
  23. Anpassen von verrauschten Daten
  24. Mathematische Vorschrift
  25. Erste Annahme
  26. Beste lineare unverzerrte Vorhersage (BLUP)
  27. Empirisch bester linearer Bias-Prädiktor (EBLUP)
  28. Korrelationsmodell
  29. Regressionsmodell
  30. Implementierungsdetails

1.8. Kreuzzerlegung : us: untranslated

1.9. Naive Bayes : us: Untranslated

  1. Gauss Naive Bayes
  2. Polygon Naive Bayes
  3. Bernouy Naive Bayes
  4. Modellanpassung für naive Buchten außerhalb des Kerns

1.10. Entscheidungsbaum : us: untranslated

  1. Klassifizierung
  2. Zurück
  3. Problem mit mehreren Ausgängen
  4. Komplex
  5. Praktische Tipps
  6. Baumalgorithmus: ID3, C4.5, C5.0 und CART
  7. Mathematische Vorschrift
  8. Klassifizierungskriterien
  9. Regressionskriterien

1.11. Ensemble-Methode: jp:

  1. Bagging Meta Estimator
  2. Randomisierter Baumwald
  3. Zufälliger Wald
  4. Hoch randomisierter Baum
  5. Parameter
  6. Parallelisierung
  7. Bewertung der funktionalen Bedeutung
  8. Vollständig zufällige Baumeinbettung
  9. AdaBoost
  10. Verwendung
  11. Gradient Tree Boost
  12. Klassifizierung
  13. Zurück
  14. Passen Sie zusätzliche schwache Lernende an
  15. Baumgrößenkontrolle
  16. Mathematische Vorschrift
  17. Verlustfunktion
  18. Normalisierung
  19. Schrumpfung
  20. Unterabtastung
  21. Interpretation
  22. Bedeutung der Funktion
  23. Teilweise abhängig
  24. VotingClassifier
  25. Die meisten Klassenbezeichnungen (Mehrheit / sorgfältige Auswahl)
  26. Verwendung
  27. Gewichtete Durchschnittswahrscheinlichkeit (Soft Voting)
  28. Verwenden Sie den Abstimmungsklassifizierer mit der Rastersuche
  29. Verwendung

1.12. Mehrklassenalgorithmus und Mehrfachbeschriftungsalgorithmus: jp:

  1. Klassifizierungsformat für mehrere Etiketten
  2. Eine Pause
  3. Lernen in mehreren Klassen
  4. Multi-Label-Lernen
  5. 1 zu 1
  6. Lernen in mehreren Klassen
  7. Fehlerkorrektur-Ausgabecode
  8. Lernen in mehreren Klassen
  9. Regression mit mehreren Ausgaben
  10. Klassifizierung mehrerer Ausgänge

1.13. Funktionsauswahl: jp:

  1. Löschen Sie Features mit geringer Streuung
  2. Auswahl der univariaten Funktion
  3. Entfernen rekursiver Features
  4. Funktionsauswahl mit SelectFromModel
  5. L1-basierte Funktionsauswahl
  6. Randomisiertes Sparse-Modell
  7. Baumbasierte Funktionsauswahl
  8. Auswahl der Funktionen als Teil der Pipeline

1.14 Semi-Teacher : us: untranslated

  1. Etikettenausbreitung

1.15. Isotonische Rückkehr: jp:

1.16. Wahrscheinlichkeitskalibrierung: jp:

1.17. Neuronales Netzwerkmodell (mit Lehrer) : us: untranslated

  1. Mehrschichtiges Perceptron
  2. Klassifizierung
  3. Zurück
  4. Normalisierung
  5. Algorithmus
  6. Komplex
  7. Mathematische Vorschrift
  8. Praktische Tipps
  9. Mehr Kontrolle mit warm_start

2. Unbeaufsichtigtes Lernen

2.1. Gaußsches gemischtes Modell : us: untranslated

  1. Gauß gemischt
  2. Vor- und Nachteile der Gaußschen Mischung
  3. Vorteile
  4. Nachteile 2 Auswahl der Anzahl der Komponenten im klassischen Gaußschen Mischmodell
  5. Schätzalgorithmus maximiert den erwarteten Wert
  6. Variante Bayes Gauss gemischt
  7. Schätzalgorithmus: Varianteninferenz
  8. Vor- und Nachteile der Transformationsinferenz mit der Bayes'schen Gaußschen Mischung
  9. Vorteile
  10. Nachteile
  11. Diricre-Prozess

2.2 Vielfältiges Lernen : us: untranslated

  1. Einleitung
  2. Isomap
  3. Komplex
  4. Lokal lineare Einbettung
  5. Komplex
  6. Lokal modifizierte lineare Einbettung
  7. Komplex
  8. Einzigartige Abbildung der Hessen-Matrix
  9. Komplex
  10. Spektrale Einbettung
  11. Komplex
  12. Lokale Tangentenraumausrichtung
  13. Komplex
  14. Mehrdimensionale Skalierung (MDS)
  15. Metrisches MDB
  16. Nicht metrisches MDB
  17. t-verteilte probabilistische Nachbarschaftseinbettung (t-SNE)
  18. t-SNE-Optimierung
  19. Verbrennt hat t-SNE
  20. Praktische Tipps

2.3. Clustering : us: Untranslated

  1. Übersicht über die Clustering-Methode
  2. K Durchschnitt
  3. Mini-Batch-K-Mittel
  4. Affinitätsausbreitung
  5. Durchschnittliche Schicht
  6. Spektrum-Clustering
  7. Unterschied in der Etikettenzuweisungsmethode
  8. Hierarchisches Clustering
  9. Verschiedene Verknüpfungstypen: Ward, vollständige durchschnittliche Verknüpfung
  10. Fügen Sie eine Verbindungsbeschränkung hinzu
  11. Ändern Sie die Metrik
  12. Dichtebasiertes räumliches Clustering (DBSCAN)
  13. Hierarchisch ausgewogene iterative Reduktion und Clusterbildung (BIRCH)
  14. Bewertung der Clusterleistung
  15. Angepasster Landindex
  16. Vorteile
  17. Nachteile
  18. Mathematische Vorschrift
  19. Gegenseitige informationsbasierte Bewertung
  20. Vorteile
  21. Nachteile
  22. Mathematische Vorschrift
  23. Homogenität, Vollständigkeit und V-Skala
  24. Vorteile
  25. Nachteile
  26. Mathematische Vorschrift
  27. Fowlkes-Mallows-Punktzahl
  28. Vorteile
  29. Nachteile
  30. Silhouette-Koeffizient
  31. Vorteile
  32. Nachteile
  33. Karinsky Harabaz Index
  34. Vorteile
  35. Nachteile

2.4. Biclustering : us: untranslated

  1. Spektrale Co-Clustering
  2. Mathematische Vorschrift
  3. Spektrum durch Clustering
  4. Mathematische Vorschrift
  5. Bi-Clustering-Bewertung

2.5. Zerlegen Sie das Signal in der Komponente (Matrixzerlegungsproblem): jp:

  1. Hauptkomponentenanalyse (PCA)
  2. Genaue PCA und probabilistische Interpretation
  3. Inkrementelle PCA
  4. PCA mit randomisierter SVD
  5. Kernel PCA
  6. Sparse-Hauptkomponentenanalyse (SparsePCA und MiniBatchSparsePCA)
  7. Zerlegung der Kürzungssingularität und Analyse der latenten Bedeutung
  8. Wörterbuch lernen
  9. Sparsame Codierung mit einem vorberechneten Wörterbuch
  10. Allgemeines Wörterbuchlernen
  11. Mini-Batch-Wörterbuch lernen
  12. Faktoranalyse
  13. Unabhängige Komponentenanalyse (ICA)
  14. Nicht negative Matrixzersetzung (NMF oder NNMF)
  15. Potenzielle Richtungszuweisung (LDA)

2.6. Kovarianzschätzung : us: untranslated

  1. Empirische Co-Dispersion
  2. Reduktion der Co-Verteilung
  3. Grundkontraktion
  4. Ledoit-Wolf-Schrumpf
  5. Oracle ungefähre Kontraktion
  6. Sparse inverse Co-Dispersion
  7. Robuste Kovarianzschätzung
  8. Minimale Kovarianzmatrixformel

2.7. Erkennung von Neuheiten und Ausreißern: jp:

  1. Erkennung von Neuheiten
  2. Ausreißererkennung
  3. Installieren Sie den ovalen Umschlag
  4. Isolationswald 3.1 Klasse SVM vs Elliptical Envelope vs Isolation Forest

2.8. Dichteschätzung: jp:

  1. Dichteschätzung: Histogramm
  2. Schätzung der Kerneldichte

2.9. Neuronales Netzwerkmodell (ohne Lehrer) : us: untranslated

  1. Begrenzte Boltzmann-Maschine
  2. Grafisches Modell und Parametrierung
  3. Bernoulli Limited Boltsman Machine
  4. Probabilistisches wahrscheinlichstes Lernen

3. Modellauswahl und -bewertung

3.1. Kreuzvalidierung: Bewertung der Schätzerleistung: jp:

  1. Berechnung kreuzvalidierter Metriken
  2. Erhalten von Prognosen durch Kreuzvalidierung
  3. Cross Verification Iterator
  4. i. D. Kreuzvalidierungs-Iteratordaten
  5. K mal 2. Leave One Out(LOO) 3. Leave P Out(LPO)
  6. Zufällige gegenseitige Überprüfung des Ersatzes a.k.a. Shuffle & Split
  7. Iterator für gegenseitige Validierung mit Hierarchie basierend auf der Klassenbezeichnung
  8. K-mal geschichtet
  9. Layered Shuffle Split
  10. Iterator für gegenseitige Validierung für gruppierte Daten
  11. Gruppe k mal
  12. Verlassen Sie eine Gruppe
  13. Verlassen Sie die P-Gruppe
  14. Gruppen-Shuffle-Split
  15. Vordefinierte Fold-Splits / Validierungs-Sets
  16. Gegenseitige Überprüfung von Zeitreihendaten
  17. Zeitreiheneinteilung
  18. Vorsichtsmaßnahmen mischen
  19. Gegenseitige Überprüfung und Modellauswahl

3.2. Estimator Hyper Parameter Tuning: jp:

  1. Schließen Sie die Rastersuche ab
  2. Randomisierte Parameteroptimierung
  3. Tipps zur Parametersuche
  4. Festlegen objektiver Metriken
  5. Zusammengesetzte Schätzungen und Parameterraum
  6. Modellauswahl: Entwicklung und Bewertung
  7. Parallel
  8. Robustheit gegenüber Behinderungen
  9. Alternative zur Brute-Force-Parametersuche
  10. Modellspezifische gegenseitige Validierung
  11. Informationsstandard
  12. Andere Schätzer

3.3. Modellbewertung: Quantifizieren Sie die Qualität der Vorhersage: jp:

  1. Bewertungsparameter: Definition der Modellbewertungsregel
  2. Allgemeiner Fall: vordefinierter Wert
  3. Definieren Sie eine Bewertungsstrategie aus einer Metrikfunktion
  4. Implementierung Ihres eigenen Scoring-Objekts
  5. Klassifizierungsmetrik
  6. Von binär zu Multi-Class und Multi-Label
  7. Genauigkeitsbewertung
  8. Cohens Kappa
  9. Verwirrungsmatrix
  10. Klassifizierungsbericht
  11. Summenverlust
  12. Jacquard-Ähnlichkeitskoeffizientenbewertung
  13. Präzision, Rückruf, F-Maßnahmen
  14. Binäre Klassifizierung
  15. Klassifizierung von Mehrfachklassen und Mehrfachetiketten
  16. Scharnierverlust
  17. Protokollverlust
  18. Matthews-Korrelationskoeffizient
  19. Betriebseigenschaften des Empfängers (ROC)
  20. Null Verlust
  21. Verlust der Verschnaufpause
  22. Multi-Label-Ranking-Metrik
  23. Abdeckungsfehler
  24. Durchschnittliche Genauigkeit des Etikettenrangs
  25. Rangverlust
  26. Regressionsmetrik
  27. Beschriebener Varianzwert
  28. Durchschnittlicher absoluter Fehler
  29. Durchschnittlicher quadratischer Fehler
  30. Zentraler absoluter Fehler
  31. R²-Punktzahl, Entscheidungsfaktor
  32. Clustering-Metrik
  33. Dummy-Schätzer

3.4. Modellpersistenz: flag_jp:

  1. Persistenzbeispiel
  2. Sicherheits- und Wartbarkeitsgrenzen

3.5. Überprüfungskurve: Zeichnen Sie die Punktzahl auf, um das Modell zu bewerten: jp:

  1. Überprüfungskurve
  2. Lernkurve

4. Datensatzkonvertierung

4.1. Pipeline- und Feature-Union: Schätzerkombination: jp:

  1. Pipeline: Kettenschätzer
  2. Verwendung
  3. Hinweis
  4. FeatureUnion: Zusammengesetzter Feature-Space
  5. Verwendung

4.2. Merkmalsextraktion: jp:

  1. Laden von Funktionen aus Diktaten
  2. Feature-Hash
  3. Implementierungsdetails
  4. Extraktion von Textfunktionen
  5. Wortnotation
  6. Seltenheit
  7. Verwendung des allgemeinen Vektorisierers
  8. Gewichtung des Tf-idf-Terms
  9. Dekodieren von Textdateien
  10. Anwendungen und Beispiele
  11. Einschränkungen des Ausdrucks in Bag of Words
  12. Vektorisieren Sie einen großen Textkorpus mit Hash-Tricks
  13. Führen Sie mit HashingVectorizer eine Out-of-Core-Skalierung durch
  14. Benutzerdefinierte Vektorisierungsklasse
  15. Extraktion von Bildmerkmalen
  16. Patch-Extraktion
  17. Bildkonnektivitätsdiagramm

4.3. Datenvorverarbeitung: jp:

  1. Standardisierung, durchschnittliche Entfernung und Dispersionsskalierung
  2. Skalieren Sie die Funktionen auf den Bereich
  3. Sparsame Datenskalierung
  4. Skalierung von Daten mit Ausreißern
  5. Kernelmatrix zentrieren
  6. Normalisierung
  7. Binarisierung
  8. Feature-Binärisierung
  9. Codieren Sie die Funktion der Kategorie
  10. Vervollständigung fehlender Werte
  11. Generieren Sie polymorphe Merkmale
  12. Kundenspezifischer Transformator

4.4. Dimensionsreduzierung ohne Lehrer: jp:

  1. PCA: Hauptkomponentenanalyse
  2. Zufällige Projektion
  3. Merkmalsagglomeration

4.5. Zufällige Projektion: jp:

  1. Johnson-Lindenstrauss-Nachtrag
  2. Gaußsche Zufallsprojektion
  3. Sparse zufällige Projektion

4.6. Kernel-Approximation : us: untranslated

  1. Nystroem-Methode zur Kernel-Approximation
  2. Kernel der radialen Basisfunktion
  3. Additive Chi Squared Kernel
  4. Schräger Chi-Quadrat-Kernel
  5. Details der Mathematik

4.7. Paarweise Metriken, Ähnlichkeiten und Kernel

  1. Kosinusähnlichkeit
  2. Linearer Kernel
  3. Polygonaler Kernel
  4. Sigmaid-Kernel
  5. RBF-Kernel
  6. Laplace-Kernel
  7. Chi-Quadrat-Kernel

4.8. Transformieren des Vorhersageziels (y): jp:

  1. Binarisierung von Etiketten
  2. Etikettencodierung

5. Dienstprogramm zum Lesen von Datensätzen : us: untranslated

  1. Allgemeine Datensatz-API
  2. Spielzeugdatensatz
  3. Beispielbild
  4. Probengenerator
  5. Generator zur Klassifizierung und Clusterbildung
  6. Einzeletikett
  7. Multi-Label 3. Biclustering
  8. Regressionsgenerator
  9. Generator für vielfältiges Lernen
  10. Generator zerlegen
  11. Datensatz im Format svmlight / libsvm
  12. Laden aus einem externen Datensatz
  13. Olivetti steht vor dem Datensatz
  14. 20 Newsgroup-Textdatensätze
  15. Verwendung
  16. Konvertieren Sie Text in Vektor
  17. Textfilterung für ein realistischeres Training
  18. Laden Sie den Datensatz aus dem Repository von mldata.org herunter
  19. Beschriftete Gesichter im Datensatz zur Erkennung wilder Gesichter
  20. Verwendung
  21. Beispiel
  22. Abholzung
  23. RCV1-Datensatz
  24. Boston Home Price Dataset
  25. Hinweis
  26. Datenbank für Brustkrebs in Wisconsin (Diagnose)
  27. Hinweis
  28. Referenzen
  29. Diabetes-Datensatz
  30. Hinweis
  31. Optische Erkennung handschriftlicher numerischer Daten
  32. Hinweis
  33. Referenzen
  34. Iris-Pflanzendatenbank
  35. Hinweis
  36. Referenzen
  37. Linnerrud-Datensatz
  38. Hinweis
  39. Referenzen

6. Computational Expansion Strategy: Größere Daten : us: untranslated

  1. Skalieren von Instanzen mithilfe von Out-of-Core-Lernen
  2. Streaming-Instanz
  3. Merkmalsextraktion
  4. Inkrementelles Lernen
  5. Beispiel
  6. Hinweise

7. Rechenleistung : us: untranslated

  1. Voraussichtliche Latenz
  2. Bulk vs. Atomic Mode
  3. Auswirkung der Anzahl der Funktionen
  4. Auswirkung der Darstellung der Eingabedaten
  5. Auswirkungen der Modellkomplexität
  6. Latenz der Merkmalsextraktion
  7. Voraussichtlicher Durchsatz
  8. Tipps und Techniken
  9. Lineare Algebra-Bibliothek
  10. Modellkomprimierung
  11. Ändern Sie die Form des Modells
  12. Verknüpfen

Klicken Sie hier für das Tutorial

© 2010 - 2016, Entwickler von Scikit-Learn (BSD-Lizenz).

Recommended Posts

[Übersetzung] scikit-learn 0.18 Benutzerhandbuch Inhaltsverzeichnis
[Übersetzung] scikit-learn 0.18 Tutorial Inhaltsverzeichnis
[Übersetzung] scikit-learn 0.18 Benutzerhandbuch 2.7. Erkennung von Neuheiten und Ausreißern
[Übersetzung] scikit-learn 0.18 Benutzerhandbuch 4.5. Zufällige Projektion
[Übersetzung] scikit-learn 0.18 Benutzerhandbuch 1.11. Ensemble-Methode
[Übersetzung] scikit-learn 0.18 Benutzerhandbuch 1.15. Isotonische Regression
[Übersetzung] scikit-learn 0.18 Benutzerhandbuch 4.2 Merkmalsextraktion
[Übersetzung] scikit-learn 0.18 Benutzerhandbuch 1.16. Wahrscheinlichkeitskalibrierung
[Übersetzung] scikit-learn 0.18 Benutzerhandbuch 1.13 Funktionsauswahl
[Übersetzung] scikit-learn 0.18 Benutzerhandbuch 3.4. Modellpersistenz
[Übersetzung] scikit-learn 0.18 Benutzerhandbuch 2.8. Dichteschätzung
[Übersetzung] scikit-learn 0.18 Benutzerhandbuch 4.3. Datenvorverarbeitung
[Übersetzung] scikit-learn 0.18 Benutzerhandbuch 3.1. Kreuzvalidierung: Bewerten Sie die Leistung des Schätzers
[Übersetzung] scikit-learn 0.18 Benutzerhandbuch 4.4. Unüberwachte Dimensionsreduzierung
[Übersetzung] scikit-learn 0.18 Benutzerhandbuch 1.4. Support Vector Machine
[Übersetzung] scikit-learn 0.18 Benutzerhandbuch 3.3. Modellbewertung: Quantifizieren Sie die Qualität der Vorhersage
[Übersetzung] scikit-learn 0.18 Benutzerhandbuch 4.1. Pipeline- und Feature-Union: Kombination von Schätzern
[Übersetzung] scikit-learn 0.18 Benutzerhandbuch 1.12. Mehrklassenalgorithmus und Mehrfachetikettenalgorithmus
[Übersetzung] scikit-learn 0.18 Benutzerhandbuch 4.8. Konvertieren Sie das Vorhersageziel (y)
[Linux] [Grundeinstellungen] Inhaltsverzeichnis
[Python] [Inhaltsverzeichnis Links] Python-Programmierung
Erste Schritte mit Python3
Pandas Benutzerhandbuch "Tabellenformatierung und Pivot-Tabelle" (offizielles Dokument Japanische Übersetzung)
Pandas Benutzerhandbuch "Zusammenführen und Verbinden und Verketten" (offizielles Dokument Japanische Übersetzung)
[Übersetzung] scikit-learn 0.18 Benutzerhandbuch 3.5. Verifizierungskurve: Zeichnen Sie die Punktzahl, um das Modell zu bewerten
[Übersetzung] scikit-learn 0.18 Benutzerhandbuch 2.5. Zerlegen von Signalen in Komponenten (Matrixzerlegungsproblem)
Nogizaka-Erkennungsprogramm (mit Yolov5) Inhaltsverzeichnis
Lassen Sie die Codetabelle von Null beginnen
Automatisieren einfacher Aufgaben mit Python Inhaltsverzeichnis
Übersetzung von scsi_mid_low_api.txt
[Übersetzung] scikit-learn 0.18 Einführung in maschinelles Lernen durch Tutorial scikit-learn
Inhalt von __name__
Erstellen Sie eine Tabelle mit IPython Notebook
Erstellen von BINGO "Web Tools" mit Python (Inhaltsverzeichnis)
Erhaltene Inhalte von sosreport
[Anmerkung] Inhalt der Form [0], Form [1], Form [2]
Pandas Benutzerhandbuch "Multi-Index / Advanced Index" (offizielles Dokument Japanische Übersetzung)
Bereitstellen von Django + Reagieren Sie von Grund auf auf GKE: Inhaltsverzeichnis
Pandas Benutzerhandbuch "Manipulieren fehlender Daten" (offizielles Dokument Japanische Übersetzung)
[Linux] [Grundeinstellungen] Inhalt der Einrichtung der Entwicklungsumgebung