In diesem Artikel werde ich die Gliederung vorstellen, dass diese Art von Arbeit bei der Verarbeitung natürlicher Sprache ausgeführt wird.
Die morphologische Analyse ist die Aufgabe, Sätze in Wörter zu zerlegen. Schlagen Sie den Teil des Wortes nach und bringen Sie das Verwendungsformular zum ursprünglichen Formular zurück. Zum Beispiel wird der Ausdruck "eine Prüfung ablegen, die Ihrer Körpergröße entspricht" wie folgt analysiert.
Höhe Nase, allgemein, *, *, *, *, Höhe, Minotake, Minotake Ni-Unterstützung, Fallunterstützung, Allgemein, *, *, *, Ni, Ni, Ni Matching Verb, Unabhängigkeit, *, *, 5. Dan / Wa-Zeilenerinnerung, kontinuierliche Verbindung, Matching, ah, ah Ta Hilfsverb, *, *, *, spezielles ta, Grundform, ta, ta, ta Prüfungsnomenklatur, Sahen Connection, *, *, *, *, Prüfung, Juken, Juken
MeCab wird zur morphologischen Analyse verwendet. https://taku910.github.io/mecab/ Dies ist weit verbreitet, weist jedoch einige Schwächen in Bezug auf neue Wörter und Fachbegriffe auf, da Wörter mehr als erforderlich unterteilt werden, z. B. die Änderung der "administrativen Ernährungsberaterprüfung" in "Management / Ernährung / Person / Prüfung". Für neue Wörter wurde ein häufig aktualisiertes Wörterbuch namens mecab-ipadic-NEologd veröffentlicht, um die Schwächen von MeCab auszugleichen. https://github.com/neologd/mecab-ipadic-neologd Darüber hinaus erstelle ich ein neues Wortwörterbuch, das lokal analysiert werden soll, und verwende es, indem ich verschiedene Dinge hinzufüge.
Ich möchte JUMAN ++ wegen seiner hohen Genauigkeit verwenden. http://nlp.ist.i.kyoto-u.ac.jp/index.php?JUMAN++ Wenn "Ausländerregierung" von MeCab verarbeitet wird, wird sie zu "Ausländer / Karotte / Regierung", in JUMAN ++ wird sie jedoch als "Ausländer / Macht" analysiert. Die Funktion besteht darin, dass Sie Ihre Analysefähigkeiten durch maschinelles Lernen verbessern können. Ich konnte den Fehler jedoch nicht beheben, als ich JUMAN ++ mit Boost erstellte. Ich frage mich, ob MeCab so verwendet wird, wie es ist.
Bei Text mit HTML-Tags müssen Sie die Tags entfernen. Wenn Sie vor der Anwendung auf die morphologische Analyse keine Vorverarbeitung durchführen, werden ① und i außerdem als häufige Schlüsselwörter angezeigt und Wörter mit derselben Bedeutung werden separat aggregiert.
Es ist ein Dämonentor. Das Studium der Gesichtszüge ist tatsächlich ein tiefgreifendes Studium mit jahrzehntelanger Geschichte. Wenn Sie interessiert sind, lesen Sie bitte die Besonderheit im Journal der Society of Artificial Intelligence Vol. 32 Nr. 3 (2017/05). https://www.ai-gakkai.or.jp/vol32_no3/ Ich habe das Gesichtszeichenwörterbuch richtig aufgenommen und es meinem Wörterbuch hinzugefügt, um den Tee schlammig zu machen, aber die Abdeckungsrate ist nicht hoch. Abhängig vom zu analysierenden Text kann es erforderlich sein, direkt mit dem Emblem zu arbeiten.
Dies ist ein Prozess, um zu verhindern, dass ähnliche Wörter mit derselben Bedeutung separat aggregiert werden.
Der Umgang mit Zahlen kann von der Art des Dokuments abhängen. Im normalen Kontext können Sie alle Nummern löschen. Auf der anderen Seite ist es für Sportaufzeichnungen und andere Elemente, bei denen Zahlen Schlüsselwörter sind, besser, Zahlen als Zahlen zu behandeln. In diesem Fall besteht das Problem darin, dass MeCab die Zahl mit dem Dezimalpunkt in verschiedene Wörter unterteilt, z. B. den ganzzahligen Teil, den Periodenteil und den Bruchteil. In diesem Fall muss ein Prozess durchgeführt werden, um den numerischen Wert wiederherzustellen, nachdem die morphologische Analyse sofort durchgeführt wurde.
Ein Stoppwort ist ein Wort, das in einem beliebigen Dokument vorkommt, z. B. "Ich" oder "Ist". Ich schließe nicht unabhängige Wörter und Wörter aus, die häufig in dem zu analysierenden Dokument als Stoppwörter erscheinen.
Chemische Formeln, mathematische und physikalische Formeln, URLs, Produktcodes, Modellnummern usw. sollten von der Phrasenanalyse ausgeschlossen werden. Wenn Sie beispielsweise MeCab einfach die chemische Formel von Phenol (C6H5OH) geben, sieht es so aus.
C Nomen,Allgemeines,*,*,*,*,*
6 Nomenklatur,Nummer,*,*,*,*,*
H Nomen,Allgemeines,*,*,*,*,*
5 Nomenklatur,Nummer,*,*,*,*,*
OH Substantiv,Proprietäre Nomenklatur,Organisation,*,*,*,*
Dies kann überhaupt nicht als Phenol erkannt werden. Darüber hinaus ist es oft bedeutungslos, englische Sätze und Programmcodes mit derselben Methode wie Japanisch zu analysieren.
Vektorisieren Sie das Dokument mit den im Dokument enthaltenen Wörtern als Hinweise (Doc2Vec). Ähnliche Dokumente sollten ähnliche Vektoren haben. Doc2Vec ist in einer Bibliothek namens gensim enthalten. https://radimrehurek.com/gensim/
Einmal zu einem Vektor gemacht, ist es möglich, ähnliche Dokumente zu kombinieren. Es gibt auch eine Methode namens Themenanalyse, die später beschrieben wird, um ähnliche Dokumente zusammenzustellen. In einigen Fällen werden Themenanalyse und Vektorisierung zusammen verwendet. Ich möchte auch hier verschiedene Versuche und Irrtümer machen.
Es klassifiziert automatisch Dokumente, die morphologisch analysiert wurden, und unterteilt sie in eine bestimmte Anzahl von Themen. Dies kann auch mit Gensim erfolgen. Gensim sollte Angst haben.
LDA(Latent Dirichlet Allocation): Wenn Sie eine Gruppe von Dokumenten angeben, wird das Thema in die angegebene Themengruppe unterteilt. Es ist schwierig zu wissen, wie viele Probleme aufgeteilt werden sollten. Es gibt Indikatoren wie Ratlosigkeit und Kohärenz, aber als ich sie verwendete, sahen sie nicht so aus. Ich habe versucht, mit dem Themenmodell-Paket von R Verwirrung und Kohärenz auszudrücken. https://cran.r-project.org/web/packages/topicmodels/index.html Vielleicht war die Anzahl der Dokumente zu groß, es reichte nicht aus, zwei Wochen hintereinander zu laufen, um ein einzelnes Diagramm zu zeichnen.
DTM(Dynamic Topic Model): Dieses Modell wird verwendet, wenn neue Nachrichten hinzukommen und sich das Thema ändert, z. B. wenn die LDA erweitert und ein Thema in SNS für einen bestimmten Zeitraum analysiert wird.
HDP(Hierarchical Dirichlet Process): Es sollte die LDA erweitern und Ihnen mitteilen, in wie viele Themen das Dokument unterteilt werden soll. Wenn ich mich jedoch von meinem Datensatz ernähre, ist mehr als die Hälfte der Themen ähnlich, sodass es sich um ein vernünftiges Thema handelt. Ich konnte es nicht teilen.
BERT Dies ist ein Modell zur Verarbeitung natürlicher Sprache, das Google im letzten Jahr angekündigt hat. Ich möchte es verwenden, habe es aber überhaupt nicht untersucht. Ich werde von nun an lernen.
Recommended Posts