Ich möchte einen Artikel der Universität Cambridge vorstellen, der die Entwicklung der maschinellen Übersetzung im Jahr 2019 sehr gut zusammenfasst.
Wir haben unser eigenes Chatbot Plugin für Slack, Kiara entwickelt. Der leitende Ingenieur Harada arbeitet hart als Japans erster Kapitelführer für Slack Developer. https://kiara-app.com/ (Kostenlose Testversion verfügbar) Mit einer Leidenschaft für Slack und der Revolution des Arbeitsstils werden wir die Entwicklergemeinde weiterhin begeistern.
Abstract
Neural Machine Translation: A Review
(Submitted on 4 Dec 2019) The field of machine translation (MT), the automatic translation of written text from one natural language into another, has experienced a major paradigm shift in recent years. Statistical MT, which mainly relies on various count-based models and which used to dominate MT research for decades, has largely been superseded by neural machine translation (NMT), which tackles translation with a single neural network. In this work we will trace back the origins of modern NMT architectures to word and sentence embeddings and earlier examples of the encoder-decoder network family. We will conclude with a survey of recent trends in the field.
Das Gebiet der maschinellen Übersetzung (MT), die automatische Übersetzung von Sätzen von einer natürlichen Sprache in eine andere, hat in den letzten Jahren einen großen Paradigmenwechsel erfahren. Das statistische MT, das sich hauptsächlich auf verschiedene zählbasierte Modelle stützte und die MT-Forschung jahrzehntelang dominierte, wurde weitgehend durch die neuronale maschinelle Übersetzung (Neural Machine Translation, NMT) ersetzt, die mit Übersetzungen in einem einzigen neuronalen Netzwerk arbeitet. Diese Aufgabe führt die Ursprünge der neuesten NMT-Architektur auf die Einbettung von Wörtern und Sätzen sowie auf frühere Beispiele der Encoder / Decoder-Netzwerkfamilie zurück. Abschließend werden wir die jüngsten Trends in diesem Bereich untersuchen.
https://arxiv.org/abs/1912.02047
Conclusion
Neural machine translation (NMT) has become the de facto standard for large-scale machine translation in a very short period of time. This article traced back the origin of NMT to word and sentence embeddings and neural language models. We reviewed the most commonly used building blocks of NMT architectures – recurrence, convolution, and attention – and discussed popular concrete architectures such as RNNsearch, GNMT, ConvS2S, and the Transformer. We discussed the advantages and disadvantages of several important design choices that have to be made to design a good NMT system with respect to decoding, training, and segmentation. We then explored advanced topics in NMT research such as explainability and data sparsity.
NMT=Neural Machine Translation
Word Embeddings
Phrase Embeddings
Sentence Embeddings
Encoder-Decoder Networks
Attentional Encoder-Decoder Networks
Recurrent NMT
Convolutional NMT
Self attention based NMT
Search problem in NMT
Greedy and beam search
Decoding direction
Generating diverse translation
Simultaneous translation
Open vocabulary NMT
NMT model errors
Reinforcement learning
Adversarial training
Explainable NMT
Multilingual NMT
Recommended Posts