Début des études: samedi 7 décembre
Matériel pédagogique, etc.: ・ Miyuki Oshige "Détails! Note d'introduction à Python3 »(Sotech, 2017): 19/12 (jeudi) Terminé ・ Cours Progate Python (5 cours au total): se termine le samedi 21 décembre ・ Andreas C. Müller, Sarah Guido "(titre japonais) Apprentissage automatique à partir de Python" (O'Reilly Japon, 2017): Terminé le samedi 23 décembre
Kaggle Concours de participation: Real or Not? NLP with Disaster Tweets 24/12 (mar.) ~
Je me rends compte maintenant que la recherche aléatoire et la recherche granulaire sont des méthodes de recherche par hyper-paramètres et ne sont pas toujours nécessaires si vous venez d'apprendre et de faire des prédictions. Si j'avais remarqué plus tôt, je n'aurais pas passé plus d'une journée à gérer les erreurs en les combinant.
J'ai expérimenté sans combiner les recherches.
・ Recherche aléatoire + xgboost: 0,7577 (à la première soumission) ・ Xgboost: 0,7393 ・ Forêt aléatoire: 0,7493 ・ SVC: 0,5712
Vous pouvez voir à quel point l'ajustement de la recherche aléatoire est mauvais. J'essaierai un peu plus.
Recommended Posts