dc.contributor.advisor | Bojar, Ondřej | |
dc.creator | Cífka, Ondřej | |
dc.date.accessioned | 2018-07-09T10:00:30Z | |
dc.date.available | 2018-07-09T10:00:30Z | |
dc.date.issued | 2018 | |
dc.identifier.uri | http://hdl.handle.net/20.500.11956/99393 | |
dc.description.abstract | Recent advances in natural language processing using neural networks have given rise to numerous methods of obtaining continuous-space vector representations of textual data that can be exploited for various applications. One of these methods is to use internal representations learned by neural machine translation (NMT) models. However, the attention mechanism in modern NMT systems removes the single point in the neural network from which the source sentence representation can be extracted. In this thesis, we propose and empirically evaluate novel ways to remove this limitation. We review existing methods of obtaining sentence representations and evaluating them, and present novel intrinsic evaluation metrics. Next, we describe our modifications to attention-based NMT architectures that allow extracting sentence representations. In the experimental section, we analyze these representations and evaluate them using a wide range of metrics with a focus on meaning representation. The results suggest that the better the translation quality, the worse the performance on these tasks. We also observe no performance gains from using multi-task training to control the representations. | en_US |
dc.description.abstract | Nedávné pokroky ve zpracování přirozeného jazyka pomocí hlubokých neuronových sítí daly vzniknout mnoha metodám získávání spojitých vektorových reprezentací textových dat. Jako jedna z těchto metod může posloužit neuronový strojový překlad, extrahujeme-li ze systému vnitřní reprezentaci vstupní věty. Nejmodernější neuronové překladové systémy jsou však založeny na mechanismu pozornosti (attention), kdy systém reprezentaci věty jako celku již vůbec nevytváří a reprezentaci tak není možné získat. V této práci navrhujeme a empiricky vyhodnocujeme nové techniky, které mají za cíl toto omezení překonat. Nejprve popisujeme stávající metody získávání a vyhodnocování větných reprezentací a rovněž představujeme dvě nové metody vyhodnocení. Dále popisujeme úpravy architektur pro strojový překlad, které umožní větné reprezentace získávat. V experimentální části tyto reprezentace analyzujeme a vyhodnocujeme je pomocí široké škály metrik se zaměřením na reprezentaci významu. Výsledky naznačují, že čím lepší je kvalita překladu, tím hůře si větné reprezentace vedou ve vyhodnocení těmito metrikami. Ani naše pokusy o regulaci větných reprezentací pomocí víceúlohového učení nepřinesly zřetelné zlepšení v tomto vyhodnocení. | cs_CZ |
dc.language | English | cs_CZ |
dc.language.iso | en_US | |
dc.publisher | Univerzita Karlova, Matematicko-fyzikální fakulta | cs_CZ |
dc.subject | věty | cs_CZ |
dc.subject | reprezentace | cs_CZ |
dc.subject | neuronový strojový překlad | cs_CZ |
dc.subject | sentence | en_US |
dc.subject | representation | en_US |
dc.subject | neural machine translation | en_US |
dc.title | Spojité reprezentace vět v neuronovém strojovém překladu | en_US |
dc.type | diplomová práce | cs_CZ |
dcterms.created | 2018 | |
dcterms.dateAccepted | 2018-06-18 | |
dc.description.department | Institute of Formal and Applied Linguistics | en_US |
dc.description.department | Ústav formální a aplikované lingvistiky | cs_CZ |
dc.description.faculty | Faculty of Mathematics and Physics | en_US |
dc.description.faculty | Matematicko-fyzikální fakulta | cs_CZ |
dc.identifier.repId | 201611 | |
dc.title.translated | Spojité reprezentace vět v neuronovém strojovém překladu | cs_CZ |
dc.contributor.referee | Rosa, Rudolf | |
thesis.degree.name | Mgr. | |
thesis.degree.level | navazující magisterské | cs_CZ |
thesis.degree.discipline | Computational Linguistics | en_US |
thesis.degree.discipline | Matematická lingvistika | cs_CZ |
thesis.degree.program | Informatika | cs_CZ |
thesis.degree.program | Computer Science | en_US |
uk.thesis.type | diplomová práce | cs_CZ |
uk.taxonomy.organization-cs | Matematicko-fyzikální fakulta::Ústav formální a aplikované lingvistiky | cs_CZ |
uk.taxonomy.organization-en | Faculty of Mathematics and Physics::Institute of Formal and Applied Linguistics | en_US |
uk.faculty-name.cs | Matematicko-fyzikální fakulta | cs_CZ |
uk.faculty-name.en | Faculty of Mathematics and Physics | en_US |
uk.faculty-abbr.cs | MFF | cs_CZ |
uk.degree-discipline.cs | Matematická lingvistika | cs_CZ |
uk.degree-discipline.en | Computational Linguistics | en_US |
uk.degree-program.cs | Informatika | cs_CZ |
uk.degree-program.en | Computer Science | en_US |
thesis.grade.cs | Výborně | cs_CZ |
thesis.grade.en | Excellent | en_US |
uk.abstract.cs | Nedávné pokroky ve zpracování přirozeného jazyka pomocí hlubokých neuronových sítí daly vzniknout mnoha metodám získávání spojitých vektorových reprezentací textových dat. Jako jedna z těchto metod může posloužit neuronový strojový překlad, extrahujeme-li ze systému vnitřní reprezentaci vstupní věty. Nejmodernější neuronové překladové systémy jsou však založeny na mechanismu pozornosti (attention), kdy systém reprezentaci věty jako celku již vůbec nevytváří a reprezentaci tak není možné získat. V této práci navrhujeme a empiricky vyhodnocujeme nové techniky, které mají za cíl toto omezení překonat. Nejprve popisujeme stávající metody získávání a vyhodnocování větných reprezentací a rovněž představujeme dvě nové metody vyhodnocení. Dále popisujeme úpravy architektur pro strojový překlad, které umožní větné reprezentace získávat. V experimentální části tyto reprezentace analyzujeme a vyhodnocujeme je pomocí široké škály metrik se zaměřením na reprezentaci významu. Výsledky naznačují, že čím lepší je kvalita překladu, tím hůře si větné reprezentace vedou ve vyhodnocení těmito metrikami. Ani naše pokusy o regulaci větných reprezentací pomocí víceúlohového učení nepřinesly zřetelné zlepšení v tomto vyhodnocení. | cs_CZ |
uk.abstract.en | Recent advances in natural language processing using neural networks have given rise to numerous methods of obtaining continuous-space vector representations of textual data that can be exploited for various applications. One of these methods is to use internal representations learned by neural machine translation (NMT) models. However, the attention mechanism in modern NMT systems removes the single point in the neural network from which the source sentence representation can be extracted. In this thesis, we propose and empirically evaluate novel ways to remove this limitation. We review existing methods of obtaining sentence representations and evaluating them, and present novel intrinsic evaluation metrics. Next, we describe our modifications to attention-based NMT architectures that allow extracting sentence representations. In the experimental section, we analyze these representations and evaluate them using a wide range of metrics with a focus on meaning representation. The results suggest that the better the translation quality, the worse the performance on these tasks. We also observe no performance gains from using multi-task training to control the representations. | en_US |
uk.file-availability | V | |
uk.publication.place | Praha | cs_CZ |
uk.grantor | Univerzita Karlova, Matematicko-fyzikální fakulta, Ústav formální a aplikované lingvistiky | cs_CZ |