[PYTHON] Verwenden von MLflow mit Databricks ② - Visualisierung experimenteller Parameter und Metriken -

Einführung

In diesem vorherigen Artikel habe ich darüber geschrieben, wie die Geschichte des Trainings von Modellen für maschinelles Lernen mit MLflow auf Databricks in ein Notizbuch integriert werden kann.

Verwenden von MLflow mit Databricks ① - Experimentelles Tracking auf Notebook-

Mit dem von Databricks verwalteten MLflow können Sie die Parameter und Metriken des Trainingsmodells vergleichen, Ihr Modell bereitstellen und vieles mehr auf der Benutzeroberfläche.

In diesem Artikel schreibe ich über den Teil, der die Parameter und Metriken für jedes Experiment visualisiert und vergleicht.

UI-Bildschirm für jedes Experiment

Klicken Sie auf dem Bildschirm, auf dem Sie die Metriken für jedes Experiment auf dem Notizbuch im vorherigen Artikel überprüft haben, auf den roten Rahmen in der Abbildung. 図2.png

Sie werden zu einem Bildschirm weitergeleitet, auf dem die Informationen für jedes Experiment zusammengefasst sind. Sie sehen Metriken, Parameter, integrierte Notizbücher und mehr. 図3.png

Scrollen Sie nach unten, um Modell- und Voreinstellungsdaten, Screenshots der Versuchsergebnisse usw. als Artefaktdateien zu speichern. 図4.png

Wenn MLflow in das Notizbuch integriert ist, wird die Experiment-ID automatisch zugewiesen und run_id wird für jedes Ausführungsergebnis zugewiesen und verwaltet. Die Artefaktdatei wird in einem Verzeichnis in DBFS gespeichert.

Vergleich jedes Experiments

Klicken Sie im Notizbuch auf den roten Rahmen in der Abbildung unten rechts neben "Läufe". 図5.png

Eine Liste jedes Experiments wird angezeigt. image.png

Wählen Sie das Experiment aus, das Sie vergleichen möchten, und klicken Sie auf "Vergleichen". image.png

Sie können Parameter und Metriken vergleichen. Durch Klicken auf jede Lauf-ID gelangen Sie zur jeweiligen Seite für das obige Experiment. image.png

Scrollen Sie nach unten, um Parameter und Metriken zu visualisieren und zu vergleichen. image.png

abschließend

Dieses Mal haben wir experimentelle Parameter und Metriken auf der Databricks-Benutzeroberfläche visualisiert und verglichen. Das nächste Mal möchte ich über die Inszenierung schreiben, um das trainierte Modell in die Produktion zu bringen.

Vorheriger Artikel: Verwenden von MLflow mit Databricks ① - Experimentelles Tracking auf Notebook-

Recommended Posts

Verwenden von MLflow mit Databricks ② - Visualisierung experimenteller Parameter und Metriken -
Verwenden von MLflow mit Databricks ① - Experimentelles Tracking auf Notebooks -
Verwenden von Python und MeCab mit Azure Databricks
Verwenden von MLflow mit Databricks ③ - Modelllebenszyklusmanagement -
Übersicht und Tipps von Seaborn mit statistischer Datenvisualisierung
Verwenden Sie MLflow mit Databricks ④ - Anrufmodell -
Vorteile und Beispiele für die Verwendung von Rabbit Mq
Visualisierung gemischter Matrizen mit sklearn.metrics.ConfusionMatrixDisplay
Clustering und Visualisierung mit Python und CytoScape
Koexistenz von Python2 und 3 mit CircleCI (1.0)
Aggregation und Visualisierung akkumulierter Zahlen
Erhalten und schätzen Sie die Form des Kopfes mit Dlib und OpenCV mit Python
Beispiel für die Verwendung von Klassenvariablen und Klassenmethoden
Bedeutung von Deep-Learning-Modellen und -Parametern
Regressionsmodell mit Scikit-Learn und dessen Visualisierung
Korrelationsvisualisierung der Merkmalsmenge und der Zielvariablen
Grundlagen der Tableau-Grundlagen (Visualisierung mit geografischen Informationen)
Empfehlung von Altair! Datenvisualisierung mit Python
Ich verwende Tox und Python 3.3 mit Travis-CI