Adversarial examples design by deep generative models
Tvorba nepřátelských vzorů hlubokými generativními modely
diploma thesis (DEFENDED)
View/ Open
Permanent link
http://hdl.handle.net/20.500.11956/127298Identifiers
Study Information System: 212255
Collections
- Kvalifikační práce [11237]
Author
Advisor
Referee
Pilát, Martin
Faculty / Institute
Faculty of Mathematics and Physics
Discipline
Artificial Intelligence
Department
Department of Theoretical Computer Science and Mathematical Logic
Date of defense
22. 6. 2021
Publisher
Univerzita Karlova, Matematicko-fyzikální fakultaLanguage
English
Grade
Excellent
Keywords (Czech)
Hluboké učení|klasifikace|generativní modely|nepřátelské vzoryKeywords (English)
Deep learning|classification|generative models|adversarial examplesV této práci zkoumáme možnost tvorby nepřátelských vzorků pomocí generativních modelů. Použijeme generativní modely k vytvoření nepřátelských vzorků pomocí perturbace latentních vektorů a využití některých vlastností klasifikátoru. Součástí práce je návrh dvou algoritmů. První algoritmus využívá lineární interpolace v kombinaci s bisekcí k získání vzorků z rozhodovací hranice klasifikátoru. Druhý využívá gradient k vytvoření potenciálně nepřátelských vzorků, podobně jako algoritmus FGSM. Tyto algoritmy použijeme na datasety MNIST, SVHT a CIFAR a vytvoříme sadu potenciálně nepřátelských vzorků a ukážeme, že v nich existují vzorky, které člověk klasifikuje jinak než stroj. Dále ukážeme, že náš typ útoku dokáže obejít bežně používané obrany.
In the thesis, we explore the prospects of creating adversarial examples using various generative models. We design two algorithms to create unrestricted adversarial examples by perturbing the vectors of latent representation and exploiting the target classifier's decision boundary properties. The first algorithm uses linear interpolation combined with bisection to extract candidate samples near the decision boundary of the targeted classifier. The second algorithm applies the idea behind the FGSM algorithm on vectors of latent representation and uses additional information from gradients to obtain better candidate samples. In an empirical study on MNIST, SVHN and CIFAR10 datasets, we show that the candidate samples contain adversarial examples, samples that look like some class to humans but are classified as a different class by machines. Additionally, we show that standard defence techniques are vulnerable to our attacks.