Multi-Target Machine Translation
Strojový překlad do mnoha jazyků současně
diploma thesis (DEFENDED)

View/ Open
Permanent link
http://hdl.handle.net/20.500.11956/120956Identifiers
Study Information System: 216519
Collections
- Kvalifikační práce [10134]
Author
Advisor
Referee
Kocmi, Tom
Faculty / Institute
Faculty of Mathematics and Physics
Discipline
Artificial Intelligence
Department
Institute of Formal and Applied Linguistics
Date of defense
14. 9. 2020
Publisher
Univerzita Karlova, Matematicko-fyzikální fakultaLanguage
English
Grade
Very good
Keywords (Czech)
Neural machine translation, Multi-target MT, linguistic relatednessKeywords (English)
Neural machine translation, Strojový překlad do mnoha jazyků současně, lingvistická podobnostV mezinárodním a vysoce mnohojazyčném prostředí se často stává, že řeč, dokument nebo jakýkoli jiný vstup musí být přeložen do velkého počtu jazyků. Není to vždy možné, mít zvlaštní systém pro každou možnou dvojici jazyků vzhledem k tomu, že takový druh překladatelských systémů je výpočetně náročný. Kombinace více cílových jazyků do jednoho překladového modelu obvykle způsobuje snížení kvality výstupu pro každý jeho směr překladu. V této práci provádime experimenty s kombinací cílových jazyků, abychom zjistili, zda jejich nejaké konkrétní seskupení může vést k lepším výsledkům, v porovnání s náhodným výběrem cílových jazyků. Využíváme výsledky nejnovějších výzkumích prací o trénování vícejazyčného Trans- former modelu beze změny jeho architektury: přidáváme značku cílového jazyku do zdro- jové věty. Natrénováli jsme řadu dvojjazyčných a vícejazyčných Transformer modelů a vyhod- notili jsme je na několika testovacích sadách z různých domén. Zjistili jsme, že ve většině případů seskupení souvisejících cílových jazyků do jednoho modelu způsobuje lepší výkon ve srovnání s modely s náhodně vybranými jazyky. Zjistili jsme však také, že doména testovací množiny, stejně jako domény dat vy- bráných do trénovácí množiny, má obvykle významnější vliv na zlepšení nebo zhoršení kvality překladu vícejazyčného modelu ve...
In international and highly-multilingual environments, it often happens, that a talk, a document, or any other input, needs to be translated into a massive number of other languages. However, it is not always an option to have a distinct system for each possible language pair due to the fact that training and operating such kind of translation systems is computationally demanding. Combining multiple target languages into one translation model usually causes a de- crease in quality of output for each its translation direction. In this thesis, we experiment with combinations of target languages to see, if a specific grouping of them can lead to better results than just randomly selecting target languages. We build upon a recent research on training a multilingual Transformer model without any change to its architecture: adding a target language tag to the source sentence. We trained a large number of bilingual and multilingual Transformer models and evaluated them on multiple test sets from different domains. We found that in most of the cases grouping related target languages into one model caused a better performance compared to models with randomly selected languages. However, we also found that a domain of the test set, as well as domains of data sampled into the training set, usu- ally have a more...