Nachdem ein Satz in Wörter zerlegt wurde, wird die Behandlung der Wörter in numerische Werte umgewandelt. Zum Beispiel ist dies = [0,2, 0,4, 0,5] = [0,1, 0,7, 0,35]. Was diese Eigenschaften darstellen, sind die Eigenschaften jedes Wortes. Diese [0,2, 0,4, 0,5] und [0,1, 0,7, 0,35] werden Wortvektoren genannt.
Wenn zum Beispiel das einzige Wort, das in dem Satz erscheint, den Sie diesmal analysieren möchten, "Ich bin John Cena" ist.
I = [ 1 , 0 , 0 , 0 ]
am = [ 0 , 1 , 0 , 0 ]
John Cena = [ 0 , 0 , 1 , 0 ]
. = [ 0 , 0 , 0 , 1 ]
Es kann wie folgt in einen One-Hot-Vektor konvertiert werden. Ändern Sie diesen Wortvektor mit einem Encoder. Infolgedessen kann das Wort in einen Merkmalsbetrag geändert werden. Der Vektor, der durch Ändern dieses One-Hot-Vektors mit einem Codierer erhalten wird, wird als Einbettungsvektor bezeichnet.
Als Beispiel I = [1, 0, 0, 0] ⇒ Encoder ⇒ $ x_1 $ = [0,3, -0,3, 0,6, 2,2]
Dieses $ x_1 $ ist der Einbettungsvektor
Die Idee wie diese wird hier detailliert beschrieben (ich habe sie als Referenz verwendet) https://ishitonton.hatenablog.com/entry/2018/11/25/200332
Ein Transformator gibt eine bestimmte Zeichenfolge zurück, wenn eine Zeichenfolge eingegeben wird. Der Inhalt besteht aus vielen Codierern und Decodierern, wie in der obigen Abbildung gezeigt. Die eingegebene Zeichenfolge wird zuerst in den Encoder eingegeben. Der Inhalt des Encoders wird unten gezeigt
Diese Selbstaufmerksamkeit befasst sich mit der Beziehung zwischen Wörtern in der Eingabezeichenfolge. Die starke Beziehung zwischen Wörtern betrachtet auch die Ähnlichkeit jedes Wortvektors. Um die Ähnlichkeit zu überprüfen, sollte daher das innere Produkt der Matrix überprüft werden. Die Transformation wird dann unter Verwendung eines allgemeinen neuronalen Netzwerks transformiert.
Der Decodierer verwendet dann die Eingabe vom Codierer, um das nächste Wort vorherzusagen.
Diese E-D-Aufmerksamkeit befasst sich mit der Beziehung zwischen Eingabe und Ausgabe.
Ein grober Transformator sieht so aus. Wenn du es richtig wissen willst https://qiita.com/omiita/items/07e69aef6c156d23c538
Ich habe das fast als Referenz benutzt! Wahnsinnig leicht zu verstehen! https://www.youtube.com/watch?v=BcNZRiO0_AE