Evolution of explainable classifier systems
Evoluce vysvětlitelných klasifikačních systémů
bakalářská práce (OBHÁJENO)
Zobrazit/ otevřít
Trvalý odkaz
http://hdl.handle.net/20.500.11956/202493Identifikátory
SIS: 284955
Kolekce
- Kvalifikační práce [11978]
Autor
Vedoucí práce
Oponent práce
Pilát, Martin
Fakulta / součást
Matematicko-fyzikální fakulta
Obor
Informatika se specializací Umělá inteligence
Katedra / ústav / klinika
Katedra teoretické informatiky a matematické logiky
Datum obhajoby
4. 9. 2025
Nakladatel
Univerzita Karlova, Matematicko-fyzikální fakultaJazyk
Angličtina
Známka
Velmi dobře
Klíčová slova (česky)
Evoluční algoritmy|Klasifikační systémy|Vysvětlitelná umělá inteligenceKlíčová slova (anglicky)
Evolutionary algoritms|Classifier systems|Explainable AITato práce se zabývá generováním interpretovatelných klasifikátorů založených na pravidlech pomocí evolučních algoritmů. S růstem oblasti strojového učení roste i po- ptávka po transparentním a vysvětlitelném rozhodování. Modely založené na pravidlech přirozeně nabízejí vyšší míru interpretovatelnosti, ale často nedosahují stejné predikční přesnosti jako složitější modely. V této práci představujeme vylepšený evoluční rámec pro generování množin pravidel, který vychází ze systému EVOTER. Původní přístup rozšiřujeme o podporu různých fitness funkcí, strategií výběru pravidel, režimů rozdělení tříd a mechanismů defaultování. Experimenty jsme provedli na třech datasetech s rostoucí složitostí, kde hodnotíme vliv různých konfigurací na klasifikační přesnost. Výsledky uka- zují, že náš systém dosahuje konkurenceschopného výkonu na jednodušších datasetech ale odhaluje své limity na složitějších, nevyvážených nebo smíšených datech. Evaluované modely porovnáváme se standardními klasifikátory, jako jsou rozhodovací stromy, naivní Bayes a náhodné lesy. Ačkoli tradiční modely dosahují v průměru vyšší přesnosti, genero- vané množiny pravidel nabízejí užitečný kompromis mezi interpretovatelností a přesností. Naše zjištění ukazují, že evoluční přístupy zůstávají použitelným základem pro vysvětli- telnou umělou...
This thesis explores the topic of generating interpretable rule-based classifiers using evolutionary algorithms. As machine learning systems become more widespread, the de- mand for transparent and explainable decision-making is increasing. Rule-based models offer a natural form of interpretability but often struggle to match the predictive per- formance of more complex models. In this work, we present an enhanced evolutionary framework for generating rule sets, building on the EVOTER system. We extend the original approach with support for multiple fitness functions, rule selection strategies, class distribution modes, and defaulting mechanisms. Our experiments are conducted across three datasets of increasing complexity, where we evaluate the impact of differ- ent configurations on classification accuracy. The results show that our system achieves competitive performance on simple datasets and reveals its limitations on more complex, imbalanced, or mixed-type data. We compare the evolved models against standard clas- sifiers such as decision trees, naive Bayes, and random forests. While traditional models outperform ours on average, the generated rule sets provide a useful trade-off between interpretability and accuracy. Our findings demonstrate that evolutionary approaches remain a viable foundation for...
