[PYTHON] Einstellung des Bewertungsindex des Kreuztests (memo, scikit-learn, cross_validation.cross_val_score)

Fall von cross_validation.cross_val_score

Geben Sie den Wert dieser ** Wertung ** an! !!

scores = cross_validation.cross_val_score(clf, X_digits, y_digits, cv=k_fold, ... scoring='precision_macro')

Selbst als ich die Präsentation auf der Konferenz hörte, war der Bewertungsindex des Kreuztests oft ein Rätsel. Ich habe mich gefragt, ob es je nach Ziel (alte Zeiten) eindeutig bestimmt werden würde. Sie wählen je nach Zweck richtig ^^;

** Liste Liste, Details können weiter vom Link gesprungen werden ** http://scikit-learn.org/stable/modules/model_evaluation.html#scoring-parameter

['accuracy', 'adjusted_rand_score', 'average_precision', 'f1', 'f1_macro', 
'f1_micro', 'f1_samples', 'f1_weighted', 'log_loss', 'mean_absolute_error', 
'mean_squared_error', 'median_absolute_error', 'precision',
'precision_macro', 'precision_micro', 'precision_samples', 
'precision_weighted', 'r2', 'recall', 'recall_macro', 'recall_micro', 
'recall_samples', 'recall_weighted', 'roc_auc']

'accuracy' accuracy_score  Viele Beispiele tun dies in der binären Klassifizierung, aber dies ist die Standardeinstellung? Formal ist es so. alt

Zum Zeitpunkt der Rückkehr schrieb Herr Daibutsu. Die Tabelle hat neg_, aber die Liste sagt "mean_squared_error". Weil es einen negativen Wert gibt, der zurückkommt, hängt das damit zusammen ... http://d.hatena.ne.jp/teramonagi/20130825/1377434479#20130825f2

** Auszug aus der Beschreibung (Viertel ist der Wert des Parameters) ** Die Notation stimmt genau mit der Liste überein ... Es ist ein Rätsel, dass sie nicht übereinstimmt

Classification ‘accuracy’ metrics.accuracy_score ‘average_precision’ metrics.average_precision_score ‘f1’ metrics.f1_score for binary targets ‘f1_micro’ metrics.f1_score micro-averaged ‘f1_macro’ metrics.f1_score macro-averaged ‘f1_weighted’ metrics.f1_score weighted average ‘f1_samples’ metrics.f1_score by multilabel sample ‘neg_log_loss’ metrics.log_loss requires predict_proba support ‘precision’ etc. metrics.precision_score suffixes apply as with ‘f1’ ‘recall’ etc. metrics.recall_score suffixes apply as with ‘f1’ ‘roc_auc’ metrics.roc_auc_score Clustering ‘adjusted_rand_score’ metrics.adjusted_rand_score Regression ‘neg_mean_absolute_error’ metrics.mean_absolute_error ‘neg_mean_squared_error’ metrics.mean_squared_error ‘neg_median_absolute_error’ metrics.median_absolute_error ‘r2’ metrics.r2_score

Recommended Posts

Einstellung des Bewertungsindex des Kreuztests (memo, scikit-learn, cross_validation.cross_val_score)
Die Fallstricke von RMSE (mittlerer quadratischer Fehler), einem Bewertungsindex für die Regression!