Explainability of federatively trained machine learning models
Vysvětlitelnost federativně učených modelů strojového učení
diplomová práce (OBHÁJENO)
Zobrazit/ otevřít
Trvalý odkaz
http://hdl.handle.net/20.500.11956/202444Identifikátory
SIS: 277698
Kolekce
- Kvalifikační práce [25011]
Autor
Vedoucí práce
Oponent práce
Vidnerová, Petra
Fakulta / součást
Filozofická fakulta
Obor
Logika
Katedra / ústav / klinika
Katedra logiky
Datum obhajoby
2. 9. 2025
Nakladatel
Univerzita Karlova, Filozofická fakultaJazyk
Angličtina
Známka
Výborně
Klíčová slova (česky)
federativní učení|strojové učení|vysvětlitelnost|XAI|Vysvětlitelnost AIKlíčová slova (anglicky)
federated learning|machine learning|explainability|XAI|Explainable AIpro práci Explainability of federatively trained machine learning models od Martina Georgiu Po léta se hlavní pozornost ve strojovém učení soustředila primárně na zlepšování přes- nosti modelů. Nyní, když jsou modely velmi výkonné, se objevily další důležité problémy, které je třeba řešit. Za prvé, mnoho nejvýkonnějších modelů je "black box", což komp- likuje pochopení a důvěru v jejich rozhodování, tedy značný problém zejména v oborech jako je medicína. Zadruhé, trénování těchto modelů často vyžaduje shromáždění citlivých dat na jednom místě, což kvůli obavám o soukromí není vždy možné. Tato práce se zabývá oběma těmito problémy a ukazuje, jak vytvořit model strojového učení, který je snadno interpretovatelný a zároveň může být trénován na soukromých decentralizovaných datech. Pro dosažení tohoto cíle jsme využili federované učení k natrénování modelu XGBoost pomocí frameworku Flower. Tato architektura umožňuje modelu učit se z dat rozp- týlených na více klientech, aniž by surová data kdy opustila jejich zařízení. Po dokončení tréninku jsme použili RuleCOSI+, abychom XGBoost model převedli na jednoduchý seznam lidsky čitelných "if-then" pravidel. Naším testovacím souborem dat byla Pima Indians Diabetes a zjistili jsme, že model nejen vykazuje silnou prediktivní výkonnost, ale také generuje jasná a...
for thesis Explainability of federatively trained machine learning models by Martin Georgiu For years, the primary focus in machine learning was simply on improving model accuracy. Now that models are very powerful, other important problems have come up that must be solved. First, many top-performing models are "black boxes," making it hard to understand or trust their reasoning, which is a significant issue in important fields like medicine. Second, training these models often requires gathering sensitive data in one place, which isn't always possible due to privacy concerns. This thesis tackles both issues by showing how to create a machine learning model that is both easy to understand and can be trained on private, decentralized data. To achieve this, we used Federated Learning to train an XGBoost model with the Flower framework. This architecture allows the model to learn from data across multiple clients without raw data ever leaving their computers. After training, we used RuleCOSI+ to convert the complex XGBoost model into a simple list of human-readable "if-then" rules. We tested our setup on the Pima Indians Diabetes dataset and found that the model demonstrated strong predictive performance while producing clear and understandable rules. This work demonstrates a practical way to build AI...
