dc.contributor.advisor | Bojar, Ondřej | |
dc.creator | Ihnatchenko, Bohdan | |
dc.date.accessioned | 2020-10-05T09:58:36Z | |
dc.date.available | 2020-10-05T09:58:36Z | |
dc.date.issued | 2020 | |
dc.identifier.uri | http://hdl.handle.net/20.500.11956/120956 | |
dc.description.abstract | V mezinárodním a vysoce mnohojazyčném prostředí se často stává, že řeč, dokument nebo jakýkoli jiný vstup musí být přeložen do velkého počtu jazyků. Není to vždy možné, mít zvlaštní systém pro každou možnou dvojici jazyků vzhledem k tomu, že takový druh překladatelských systémů je výpočetně náročný. Kombinace více cílových jazyků do jednoho překladového modelu obvykle způsobuje snížení kvality výstupu pro každý jeho směr překladu. V této práci provádime experimenty s kombinací cílových jazyků, abychom zjistili, zda jejich nejaké konkrétní seskupení může vést k lepším výsledkům, v porovnání s náhodným výběrem cílových jazyků. Využíváme výsledky nejnovějších výzkumích prací o trénování vícejazyčného Trans- former modelu beze změny jeho architektury: přidáváme značku cílového jazyku do zdro- jové věty. Natrénováli jsme řadu dvojjazyčných a vícejazyčných Transformer modelů a vyhod- notili jsme je na několika testovacích sadách z různých domén. Zjistili jsme, že ve většině případů seskupení souvisejících cílových jazyků do jednoho modelu způsobuje lepší výkon ve srovnání s modely s náhodně vybranými jazyky. Zjistili jsme však také, že doména testovací množiny, stejně jako domény dat vy- bráných do trénovácí množiny, má obvykle významnější vliv na zlepšení nebo zhoršení kvality překladu vícejazyčného modelu ve... | cs_CZ |
dc.description.abstract | In international and highly-multilingual environments, it often happens, that a talk, a document, or any other input, needs to be translated into a massive number of other languages. However, it is not always an option to have a distinct system for each possible language pair due to the fact that training and operating such kind of translation systems is computationally demanding. Combining multiple target languages into one translation model usually causes a de- crease in quality of output for each its translation direction. In this thesis, we experiment with combinations of target languages to see, if a specific grouping of them can lead to better results than just randomly selecting target languages. We build upon a recent research on training a multilingual Transformer model without any change to its architecture: adding a target language tag to the source sentence. We trained a large number of bilingual and multilingual Transformer models and evaluated them on multiple test sets from different domains. We found that in most of the cases grouping related target languages into one model caused a better performance compared to models with randomly selected languages. However, we also found that a domain of the test set, as well as domains of data sampled into the training set, usu- ally have a more... | en_US |
dc.language | English | cs_CZ |
dc.language.iso | en_US | |
dc.publisher | Univerzita Karlova, Matematicko-fyzikální fakulta | cs_CZ |
dc.subject | Neural machine translation | cs_CZ |
dc.subject | Multi-target MT | cs_CZ |
dc.subject | linguistic relatedness | cs_CZ |
dc.subject | Neural machine translation | en_US |
dc.subject | Strojový překlad do mnoha jazyků současně | en_US |
dc.subject | lingvistická podobnost | en_US |
dc.title | Multi-Target Machine Translation | en_US |
dc.type | diplomová práce | cs_CZ |
dcterms.created | 2020 | |
dcterms.dateAccepted | 2020-09-14 | |
dc.description.department | Ústav formální a aplikované lingvistiky | cs_CZ |
dc.description.department | Institute of Formal and Applied Linguistics | en_US |
dc.description.faculty | Faculty of Mathematics and Physics | en_US |
dc.description.faculty | Matematicko-fyzikální fakulta | cs_CZ |
dc.identifier.repId | 216519 | |
dc.title.translated | Strojový překlad do mnoha jazyků současně | cs_CZ |
dc.contributor.referee | Kocmi, Tom | |
thesis.degree.name | Mgr. | |
thesis.degree.level | navazující magisterské | cs_CZ |
thesis.degree.discipline | Artificial Intelligence | en_US |
thesis.degree.discipline | Umělá inteligence | cs_CZ |
thesis.degree.program | Computer Science | en_US |
thesis.degree.program | Informatika | cs_CZ |
uk.thesis.type | diplomová práce | cs_CZ |
uk.taxonomy.organization-cs | Matematicko-fyzikální fakulta::Ústav formální a aplikované lingvistiky | cs_CZ |
uk.taxonomy.organization-en | Faculty of Mathematics and Physics::Institute of Formal and Applied Linguistics | en_US |
uk.faculty-name.cs | Matematicko-fyzikální fakulta | cs_CZ |
uk.faculty-name.en | Faculty of Mathematics and Physics | en_US |
uk.faculty-abbr.cs | MFF | cs_CZ |
uk.degree-discipline.cs | Umělá inteligence | cs_CZ |
uk.degree-discipline.en | Artificial Intelligence | en_US |
uk.degree-program.cs | Informatika | cs_CZ |
uk.degree-program.en | Computer Science | en_US |
thesis.grade.cs | Velmi dobře | cs_CZ |
thesis.grade.en | Very good | en_US |
uk.abstract.cs | V mezinárodním a vysoce mnohojazyčném prostředí se často stává, že řeč, dokument nebo jakýkoli jiný vstup musí být přeložen do velkého počtu jazyků. Není to vždy možné, mít zvlaštní systém pro každou možnou dvojici jazyků vzhledem k tomu, že takový druh překladatelských systémů je výpočetně náročný. Kombinace více cílových jazyků do jednoho překladového modelu obvykle způsobuje snížení kvality výstupu pro každý jeho směr překladu. V této práci provádime experimenty s kombinací cílových jazyků, abychom zjistili, zda jejich nejaké konkrétní seskupení může vést k lepším výsledkům, v porovnání s náhodným výběrem cílových jazyků. Využíváme výsledky nejnovějších výzkumích prací o trénování vícejazyčného Trans- former modelu beze změny jeho architektury: přidáváme značku cílového jazyku do zdro- jové věty. Natrénováli jsme řadu dvojjazyčných a vícejazyčných Transformer modelů a vyhod- notili jsme je na několika testovacích sadách z různých domén. Zjistili jsme, že ve většině případů seskupení souvisejících cílových jazyků do jednoho modelu způsobuje lepší výkon ve srovnání s modely s náhodně vybranými jazyky. Zjistili jsme však také, že doména testovací množiny, stejně jako domény dat vy- bráných do trénovácí množiny, má obvykle významnější vliv na zlepšení nebo zhoršení kvality překladu vícejazyčného modelu ve... | cs_CZ |
uk.abstract.en | In international and highly-multilingual environments, it often happens, that a talk, a document, or any other input, needs to be translated into a massive number of other languages. However, it is not always an option to have a distinct system for each possible language pair due to the fact that training and operating such kind of translation systems is computationally demanding. Combining multiple target languages into one translation model usually causes a de- crease in quality of output for each its translation direction. In this thesis, we experiment with combinations of target languages to see, if a specific grouping of them can lead to better results than just randomly selecting target languages. We build upon a recent research on training a multilingual Transformer model without any change to its architecture: adding a target language tag to the source sentence. We trained a large number of bilingual and multilingual Transformer models and evaluated them on multiple test sets from different domains. We found that in most of the cases grouping related target languages into one model caused a better performance compared to models with randomly selected languages. However, we also found that a domain of the test set, as well as domains of data sampled into the training set, usu- ally have a more... | en_US |
uk.file-availability | V | |
uk.grantor | Univerzita Karlova, Matematicko-fyzikální fakulta, Ústav formální a aplikované lingvistiky | cs_CZ |
thesis.grade.code | 2 | |
uk.publication-place | Praha | cs_CZ |