Models for multivariate ordinal data
Modely pro vícerozměrná ordinální data
diplomová práce (OBHÁJENO)
Zobrazit/ otevřít
Trvalý odkaz
http://hdl.handle.net/20.500.11956/206974Identifikátory
SIS: 275836
Kolekce
- Kvalifikační práce [12009]
Autor
Vedoucí práce
Oponent práce
Hlávka, Zdeněk
Fakulta / součást
Matematicko-fyzikální fakulta
Obor
Pravděpodobnost, matematická statistika a ekonometrie se specializací Matematická statistika
Katedra / ústav / klinika
Katedra pravděpodobnosti a matematické statistiky
Datum obhajoby
6. 2. 2026
Nakladatel
Univerzita Karlova, Matematicko-fyzikální fakultaJazyk
Angličtina
Známka
Výborně
Klíčová slova (česky)
ordinální data|kumulativní modely|GHK algoritmusKlíčová slova (anglicky)
ordinal data|cumulative models|GHK algorithmPráce se zabývá kumulativními probit modely pro ordinální data. Soustředíme se na výpočetní aspekty vícerozměrných a longitudinálních modelů. V modelech s korelovanými latentními proměnnými nebo s náhodnými efekty je hlavním výpočetním problémem počítání pravděpodobností obdélníků při vícerozměrném normálním rozdělení. V práci studujeme numerické metody vhodné pro jejich výpočet: separaci proměnných, variable reordering a quasi-Monte Carlo integraci; dále se zabýváme možností využití GHK al- goritmu. Hlavním přínosem práce je bayesovská implementace ve Stanu, která využívá GHK konstrukci jako deterministickou transformaci rovnoměrně rozdělených pomocných parametrů na normálně rozdělené latentní proměnné omezené na interval daný pozorovanou odezvou. Příspěvkem k log-posterioru je pak jakobián této transformace. Tímto postupem se vyhneme explicitnímu výpočtu mnohorozměrných normálních pravděpodobností. Model implementujeme a předvádíme jednak na syntetických datech, jednak na datech z databáze PRO-ACT. Kód modelu je dostupný na GitHubu.
This thesis studies cumulative probit regression for ordinal data. We focus on computa- tional aspects of multivariate and longitudinal models. Correlated latent variables and random effects reduce likelihood evaluation to multivariate normal rectangle probabilities, which are the main computational bottleneck in parameter estimation. We study numeri- cal methods to evaluate these probabilities: separation of variables, variable reordering, and quasi-Monte Carlo integration; and we investigate the use of the GHK algorithm. The main contribution is a Bayesian implementation that uses the GHK construction as a deterministic reparameterization: uniform auxiliary variables are mapped to latent Gaussian variables satisfying response-implied truncation bounds, and the Jacobian ad- justment of the mapping is added to the log posterior. This avoids explicit multivariate normal integration. The model is implemented and demonstrated on synthetic data and ALSFRS-R data from the PRO-ACT database. The code is available on GitHub.
