Précisez la valeur de ce ** score **! !!
scores = cross_validation.cross_val_score(clf, X_digits, y_digits, cv=k_fold, ... scoring='precision_macro')
Même lorsque j'ai entendu la présentation à la conférence, l'indice d'évaluation du test croisé était souvent un mystère. Je me demandais si cela serait uniquement déterminé en fonction de la cible (anciennement). Vous choisissez correctement en fonction de votre objectif ^^;
** Liste de liste, les détails peuvent être sautés plus loin à partir du lien ** http://scikit-learn.org/stable/modules/model_evaluation.html#scoring-parameter
['accuracy', 'adjusted_rand_score', 'average_precision', 'f1', 'f1_macro',
'f1_micro', 'f1_samples', 'f1_weighted', 'log_loss', 'mean_absolute_error',
'mean_squared_error', 'median_absolute_error', 'precision',
'precision_macro', 'precision_micro', 'precision_samples',
'precision_weighted', 'r2', 'recall', 'recall_macro', 'recall_micro',
'recall_samples', 'recall_weighted', 'roc_auc']
'accuracy' accuracy_score De nombreux échantillons le font en classification binaire, mais c'est la valeur par défaut? Formellement, c'est comme ça.
Au moment du retour, M. Daibutsu a écrit. La table a neg_, mais la liste dit "mean_squared_error". Parce qu'il y a une valeur négative qui revient, est-ce lié à ça ... http://d.hatena.ne.jp/teramonagi/20130825/1377434479#20130825f2
** Extrait de la description (quart est la valeur du paramètre) ** La notation correspond exactement à la liste ... C'est un mystère qu'elle ne correspond pas
Classification ‘accuracy’ metrics.accuracy_score ‘average_precision’ metrics.average_precision_score ‘f1’ metrics.f1_score for binary targets ‘f1_micro’ metrics.f1_score micro-averaged ‘f1_macro’ metrics.f1_score macro-averaged ‘f1_weighted’ metrics.f1_score weighted average ‘f1_samples’ metrics.f1_score by multilabel sample ‘neg_log_loss’ metrics.log_loss requires predict_proba support ‘precision’ etc. metrics.precision_score suffixes apply as with ‘f1’ ‘recall’ etc. metrics.recall_score suffixes apply as with ‘f1’ ‘roc_auc’ metrics.roc_auc_score Clustering ‘adjusted_rand_score’ metrics.adjusted_rand_score Regression ‘neg_mean_absolute_error’ metrics.mean_absolute_error ‘neg_mean_squared_error’ metrics.mean_squared_error ‘neg_median_absolute_error’ metrics.median_absolute_error ‘r2’ metrics.r2_score