Parameter-efficient unlearning of sensitive data in Large Language Models
Efektivní odnaučování citlivých údajů ve velkých jazykových modelech
diplomová práce (OBHÁJENO)
Zobrazit/ otevřít
Trvalý odkaz
http://hdl.handle.net/20.500.11956/199666Identifikátory
SIS: 277288
Kolekce
- Kvalifikační práce [11978]
Autor
Vedoucí práce
Oponent práce
Bojar, Ondřej
Fakulta / součást
Matematicko-fyzikální fakulta
Obor
Informatika - Umělá inteligence
Katedra / ústav / klinika
Ústav formální a aplikované lingvistiky
Datum obhajoby
9. 6. 2025
Nakladatel
Univerzita Karlova, Matematicko-fyzikální fakultaJazyk
Angličtina
Známka
Výborně
Klíčová slova (česky)
velké jazykové modely|strojové odnaučení|citlivá data|autorské právo|efektivní doladěníKlíčová slova (anglicky)
large language models|machine unlearning|user privacy|copyright|parameter-efficient fine-tuningVelké jazykové modely vykazují skvělý výkon v mnoha úlohách zpracování přirozeného jazyka. Jejich trénování vyžadující velké množství dat, které je často získávané z internetu, se ovšem může potýkat s etickými a právními problémy. Jelikož jsou si tyto modely schopné zapamatovat části jejich trénovacích dat, jsou také schopné reprodukovat citlivé osobní údaje nebo obsah chráněný autorským právem. Trénovat tyto modely od začátku po každém odebrání nechtěného obsahu z trénovacích dat je neefektivní, a proto jsme se zaměřili na oblast strojového odnaučování. Pro zvýšení efektivity odnaučování jsme využili metod paměťově efektivního dolaďování. Naši metodu jsme odeslali do soutěže na mezinárodním workshopu SemEval, kde jsme se v rámci evaluace na jednom z modelů umístili na třetím místě.
Large language models show remarkable performance in many natural language pro- cessing tasks. However, their pre-training on web-scraped data raises ethical concerns and potentially legal issues. Due to their ability to remember portions of their training data, they may regurgitate sensitive personal information or copyrighted content present in the data. As retraining the models on each information removal request is prohibitively expensive, we investigate the field of machine unlearning. To further increase the effi- ciency of unlearning, we employ parameter-efficient fine-tuning. We evaluated our method on a shared task of the International Workshop on Semantic Evaluation, on which we achieved a high ranking.
