Machine learning on small datasets with large number of features
Strojové učení na malých datových množinách s velkým počtem atributů
diploma thesis (DEFENDED)

View/ Open
Permanent link
http://hdl.handle.net/20.500.11956/119459Identifiers
Study Information System: 214664
Collections
- Kvalifikační práce [11322]
Author
Advisor
Referee
Matzner, Filip
Faculty / Institute
Faculty of Mathematics and Physics
Discipline
Artificial Intelligence
Department
Department of Software and Computer Science Education
Date of defense
8. 7. 2020
Publisher
Univerzita Karlova, Matematicko-fyzikální fakultaLanguage
English
Grade
Excellent
Keywords (Czech)
strojové učení, výběr důležitých atributů, klasifikaceKeywords (English)
machine learning, feature selection, classificationPoužitie metód strojového učenia v oblasti biológie je často zložité. Na jednej strane sa v tejto oblasti zvyšuje počet premenných, ktoré je možné zaznamenať. Na strane druhej je však meranie pre každú entitu nákladné, a tak je počet pozorovaní často nízky. V tejto práci sa preto venujeme datasetom, ktoré majú nízky počet pozorovaní, ale veľký počet premenných. Zameriavame sa na rozličné kombinácie metód výberu premenných a klasifikačných metód a pokúšame sa odpovedať na otázku, ktoré kombinácie fungujú najlepšie. Pre lepšie pochopenie súvislostí medzi metódami pracujeme s dvoma simu- lačnými štúdiami a niekoľkými reálnymi datasetmi. Výsledky práce naznačujú, že väčšina klasifikačných metód dosahuje lepšie výsledky, ak pracujú s predvybranými premennými a nie so všetkými premennými dostupnými v dátach. V práci zároveň definujeme hranice pre počet pozorovaní datasetu, od ktorých dosahujú metódy výberu premenných vyššiu kvalitu a stabilitu. V závere práce popisujeme identifikovaný vzťah medzi mierou stabil- ity výberu premenných (tzv. Jaccardov index) a mierou kvality výberu premenných (tzv. False Discovery Rate). 1
Machine learning models are difficult to employ in biology-related research. On the one hand, the availability of features increases as we can obtain gene expressions and other omics information. On the other hand, the number of available observations is still low due to the high costs associated with obtaining the data for a single subject. In this work we, therefore, focus on the set of problems where the number of observations is smaller than the number of features. We analyse different combinations of feature selection and classification models and we study which combinations work the best. To assess these model combinations, we introduce two simulation studies and several real-world datasets. We conclude that most classification models benefit from feature pre-selection using feature selection models. Also, we define model-based thresholds for the number of observations above which we observe increased feature selection stability and quality. Finally, we identify a relation between feature selection False Discovery Rate and stability expressed in terms of the Jaccard index. 1