dc.contributor.advisor | Neruda, Roman | |
dc.creator | Čermák, Vojtěch | |
dc.date.accessioned | 2021-07-13T06:17:59Z | |
dc.date.available | 2021-07-13T06:17:59Z | |
dc.date.issued | 2021 | |
dc.identifier.uri | http://hdl.handle.net/20.500.11956/127298 | |
dc.description.abstract | V této práci zkoumáme možnost tvorby nepřátelských vzorků pomocí generativních modelů. Použijeme generativní modely k vytvoření nepřátelských vzorků pomocí perturbace latentních vektorů a využití některých vlastností klasifikátoru. Součástí práce je návrh dvou algoritmů. První algoritmus využívá lineární interpolace v kombinaci s bisekcí k získání vzorků z rozhodovací hranice klasifikátoru. Druhý využívá gradient k vytvoření potenciálně nepřátelských vzorků, podobně jako algoritmus FGSM. Tyto algoritmy použijeme na datasety MNIST, SVHT a CIFAR a vytvoříme sadu potenciálně nepřátelských vzorků a ukážeme, že v nich existují vzorky, které člověk klasifikuje jinak než stroj. Dále ukážeme, že náš typ útoku dokáže obejít bežně používané obrany. | cs_CZ |
dc.description.abstract | In the thesis, we explore the prospects of creating adversarial examples using various generative models. We design two algorithms to create unrestricted adversarial examples by perturbing the vectors of latent representation and exploiting the target classifier's decision boundary properties. The first algorithm uses linear interpolation combined with bisection to extract candidate samples near the decision boundary of the targeted classifier. The second algorithm applies the idea behind the FGSM algorithm on vectors of latent representation and uses additional information from gradients to obtain better candidate samples. In an empirical study on MNIST, SVHN and CIFAR10 datasets, we show that the candidate samples contain adversarial examples, samples that look like some class to humans but are classified as a different class by machines. Additionally, we show that standard defence techniques are vulnerable to our attacks. | en_US |
dc.language | English | cs_CZ |
dc.language.iso | en_US | |
dc.publisher | Univerzita Karlova, Matematicko-fyzikální fakulta | cs_CZ |
dc.subject | Hluboké učení|klasifikace|generativní modely|nepřátelské vzory | cs_CZ |
dc.subject | Deep learning|classification|generative models|adversarial examples | en_US |
dc.title | Adversarial examples design by deep generative models | en_US |
dc.type | diplomová práce | cs_CZ |
dcterms.created | 2021 | |
dcterms.dateAccepted | 2021-06-22 | |
dc.description.department | Department of Theoretical Computer Science and Mathematical Logic | en_US |
dc.description.department | Katedra teoretické informatiky a matematické logiky | cs_CZ |
dc.description.faculty | Matematicko-fyzikální fakulta | cs_CZ |
dc.description.faculty | Faculty of Mathematics and Physics | en_US |
dc.identifier.repId | 212255 | |
dc.title.translated | Tvorba nepřátelských vzorů hlubokými generativními modely | cs_CZ |
dc.contributor.referee | Pilát, Martin | |
thesis.degree.name | Mgr. | |
thesis.degree.level | navazující magisterské | cs_CZ |
thesis.degree.discipline | Artificial Intelligence | en_US |
thesis.degree.discipline | Umělá inteligence | cs_CZ |
thesis.degree.program | Informatika | cs_CZ |
thesis.degree.program | Computer Science | en_US |
uk.thesis.type | diplomová práce | cs_CZ |
uk.taxonomy.organization-cs | Matematicko-fyzikální fakulta::Katedra teoretické informatiky a matematické logiky | cs_CZ |
uk.taxonomy.organization-en | Faculty of Mathematics and Physics::Department of Theoretical Computer Science and Mathematical Logic | en_US |
uk.faculty-name.cs | Matematicko-fyzikální fakulta | cs_CZ |
uk.faculty-name.en | Faculty of Mathematics and Physics | en_US |
uk.faculty-abbr.cs | MFF | cs_CZ |
uk.degree-discipline.cs | Umělá inteligence | cs_CZ |
uk.degree-discipline.en | Artificial Intelligence | en_US |
uk.degree-program.cs | Informatika | cs_CZ |
uk.degree-program.en | Computer Science | en_US |
thesis.grade.cs | Výborně | cs_CZ |
thesis.grade.en | Excellent | en_US |
uk.abstract.cs | V této práci zkoumáme možnost tvorby nepřátelských vzorků pomocí generativních modelů. Použijeme generativní modely k vytvoření nepřátelských vzorků pomocí perturbace latentních vektorů a využití některých vlastností klasifikátoru. Součástí práce je návrh dvou algoritmů. První algoritmus využívá lineární interpolace v kombinaci s bisekcí k získání vzorků z rozhodovací hranice klasifikátoru. Druhý využívá gradient k vytvoření potenciálně nepřátelských vzorků, podobně jako algoritmus FGSM. Tyto algoritmy použijeme na datasety MNIST, SVHT a CIFAR a vytvoříme sadu potenciálně nepřátelských vzorků a ukážeme, že v nich existují vzorky, které člověk klasifikuje jinak než stroj. Dále ukážeme, že náš typ útoku dokáže obejít bežně používané obrany. | cs_CZ |
uk.abstract.en | In the thesis, we explore the prospects of creating adversarial examples using various generative models. We design two algorithms to create unrestricted adversarial examples by perturbing the vectors of latent representation and exploiting the target classifier's decision boundary properties. The first algorithm uses linear interpolation combined with bisection to extract candidate samples near the decision boundary of the targeted classifier. The second algorithm applies the idea behind the FGSM algorithm on vectors of latent representation and uses additional information from gradients to obtain better candidate samples. In an empirical study on MNIST, SVHN and CIFAR10 datasets, we show that the candidate samples contain adversarial examples, samples that look like some class to humans but are classified as a different class by machines. Additionally, we show that standard defence techniques are vulnerable to our attacks. | en_US |
uk.file-availability | V | |
uk.grantor | Univerzita Karlova, Matematicko-fyzikální fakulta, Katedra teoretické informatiky a matematické logiky | cs_CZ |
thesis.grade.code | 1 | |
uk.publication-place | Praha | cs_CZ |
uk.thesis.defenceStatus | O | |