Joint Learning of Syntax and Semantics
Joint Learning of Syntax and Semantics
diploma thesis (NOT DEFENDED)

View/ Open
Permanent link
http://hdl.handle.net/20.500.11956/40851Identifiers
Study Information System: 117240
Collections
- Kvalifikační práce [11325]
Author
Advisor
Referee
Mareček, David
Faculty / Institute
Faculty of Mathematics and Physics
Discipline
Computational Linguistics
Department
Institute of Formal and Applied Linguistics
Date of defense
7. 9. 2012
Publisher
Univerzita Karlova, Matematicko-fyzikální fakultaLanguage
English
Grade
Fail
Tato diplomová práce se zabývá problémem vzdělávání různé úrovně abstrakce jazykové znalosti. Hlavní důraz je kladen na učení latentní sémantické informace zastoupená rámu tříd, slovesných tříd a role vložky podle průzkumu nedávné úspěchy v Bayesian modelování se skrytou proměnné. Dále je v blízkosti spojka syntaxe a sémantiky zachycen v společný model, který také obsahuje cenné lexikální informace. Výsledek je jazykově nezávislý, rys-menší model sémantické informace se výkon srovnatelný se současným stavem techniky.
This master thesis addresses the problem of learning varying levels of abstraction of linguistic knowledge. The main focus is on learning latent semantic information as represented by frame classes, verb classes and role fillers by exploring recent successes in Bayesian modeling with hidden variables. Furthermore, close coupling of syntax and semantics is captured in the joint model which also incorporates valuable lexical information. The result is a language-independent, feature-less model of semantic information with a performance comparable to the current state of the art.