・ Über SVM (Support Vector Machine) ・ Verwenden Sie es schließlich als persönliches Hobby im Computer-Shogi Ich habe es zusammen versucht.
SVM:Understanding Support Vector Machine algorithm from examples (along with code) http://www.analyticsvidhya.com/blog/2015/10/understaing-support-vector-machine-example-code/?utm_content=buffer4951f&utm_medium=social&utm_source=twitter.com&utm_campaign=buffer
Obwohl es sich um einen englischen Artikel handelt, ist dies meine persönliche Empfehlung. Das Konzept der SVM wird grafisch ohne Erklärung durch die Formel erklärt, Ich denke, es ist sehr einfach, damit auszukommen.
・ Klassifizieren Sie durch Zeichnen der Grenzfläche
Fasst PRML (Mustererkennung und maschinelles Lernen) zusammen Ich habe bereits einen großartigen Artikel, siehe das.
http://aidiary.hatenablog.com/entry/20100501/1272712699
Das Obige definiert nicht genau, wie die Schnittstelle gezeichnet wird. Ein Optimierungsproblem, das den Spielraum maximiert (der kürzeste Abstand zwischen der Klassifizierungsgrenze und den Trainingsdaten). Sie können sehen, dass Sie das doppelte Problem des konvexen Planungsproblems lösen sollten.
http://aidiary.hatenablog.com/entry/20100502/1272804952
Indem der Rand zu einer nichtlinearen Funktion gemacht wird, ist eine komplexere Klassifizierung möglich. Trotzdem ist die Klassifizierung bei Überlappung schwierig.
http://aidiary.hatenablog.com/entry/20100503/1272889097
Bisher heißt es Hard Margin SVM, Es war eine Technik, die davon ausging, dass die Daten im Eingaberaum x vollständig getrennt werden konnten.
Andererseits wird die SVM mit weichem Rand verwendet, um die Klassifizierung zu überwinden, wenn eine Überlappung vorliegt, wie oben beschrieben. Dies ist eine Methode, die eine Fehlklassifizierung bestraft.
Je mehr Fehlklassifizierungen vorgenommen werden, desto mehr Strafen werden hinzugefügt, um eine Minimierung zu verhindern. Versuchen Sie daher, Fehlklassifizierungen so gering wie möglich zu halten. Es wird versucht, die Parameter anzupassen.
Je höher die Strafe, desto genauer die Klassifizierung. Egal wie fein die Klassifikationsgrenzen sind ...
Verstopfungsvorhersage durch SVM und deren Anwendung Makoto Miwa, Institut für Grundlageninformatik, Graduiertenschule für New Area Creation Science, Universität Tokio (zu dieser Zeit) http://repository.dl.itc.u-tokyo.ac.jp/dspace/bitstream/2261/187/1/K-00177.pdf
SVM wird verwendet, um Verstopfungen im Shogi vorherzusagen.
Bei Shogi ist es sehr wichtig zu beurteilen, ob eine Blockade vorliegt. "Durch die Verwendung der Verstopfungsvorhersage mit SVM konnten wir die Suchzeit auf 62% reduzieren." Das ist der Zweck dieses Papiers.
Für Computer Shogi ・ Anwendung des maschinellen Lernens auf Bewertungsfunktionen ・ Suchalgorithmus zur Suche nach Aspekten Es ist ausführlich darüber geschrieben, daher denke ich, dass es sehr lehrreich sein wird.
In "2. Über die Methode namens SVM" habe ich Schritt für Schritt erklärt. Aus Berechnungskosten und Einfachheit ergibt sich praktisch ungefähr 1. Ich denke, die lineare SVM von ist genug.
Es gibt Studien, die nichtlineare SVM anwenden, aber ich persönlich halte dies für kontraproduktiv. Die erhaltene Genauigkeit ist für die Berechnungskosten sehr gering.
Ergänzung: Nutzung des maschinellen Lernens in Computer Shogi and Go http://www.slideshare.net/TakashiKato2/ss-57966067
Ich habe es selbst angesprochen, aber hier erfahren Sie, wie Sie maschinelles Lernen in Computer-Shogi verwenden.
Recommended Posts