Joint Learning of Syntax and Semantics
Joint Learning of Syntax and Semantics
diplomová práce (NEOBHÁJENO)
Zobrazit/ otevřít
Trvalý odkaz
http://hdl.handle.net/20.500.11956/40851Identifikátory
SIS: 117240
Katalog UK: 990014995000106986
Kolekce
- Kvalifikační práce [11982]
Autor
Vedoucí práce
Oponent práce
Mareček, David
Fakulta / součást
Matematicko-fyzikální fakulta
Obor
Matematická lingvistika
Katedra / ústav / klinika
Ústav formální a aplikované lingvistiky
Datum obhajoby
7. 9. 2012
Nakladatel
Univerzita Karlova, Matematicko-fyzikální fakultaJazyk
Angličtina
Známka
Neprospěl
Tato diplomová práce se zabývá problémem vzdělávání různé úrovně abstrakce jazykové znalosti. Hlavní důraz je kladen na učení latentní sémantické informace zastoupená rámu tříd, slovesných tříd a role vložky podle průzkumu nedávné úspěchy v Bayesian modelování se skrytou proměnné. Dále je v blízkosti spojka syntaxe a sémantiky zachycen v společný model, který také obsahuje cenné lexikální informace. Výsledek je jazykově nezávislý, rys-menší model sémantické informace se výkon srovnatelný se současným stavem techniky.
This master thesis addresses the problem of learning varying levels of abstraction of linguistic knowledge. The main focus is on learning latent semantic information as represented by frame classes, verb classes and role fillers by exploring recent successes in Bayesian modeling with hidden variables. Furthermore, close coupling of syntax and semantics is captured in the joint model which also incorporates valuable lexical information. The result is a language-independent, feature-less model of semantic information with a performance comparable to the current state of the art.
