Zobrazit minimální záznam

Tvorba nepřátelských vzorů hlubokými generativními modely
dc.contributor.advisorNeruda, Roman
dc.creatorČermák, Vojtěch
dc.date.accessioned2021-07-13T06:17:59Z
dc.date.available2021-07-13T06:17:59Z
dc.date.issued2021
dc.identifier.urihttp://hdl.handle.net/20.500.11956/127298
dc.description.abstractV této práci zkoumáme možnost tvorby nepřátelských vzorků pomocí generativních modelů. Použijeme generativní modely k vytvoření nepřátelských vzorků pomocí perturbace latentních vektorů a využití některých vlastností klasifikátoru. Součástí práce je návrh dvou algoritmů. První algoritmus využívá lineární interpolace v kombinaci s bisekcí k získání vzorků z rozhodovací hranice klasifikátoru. Druhý využívá gradient k vytvoření potenciálně nepřátelských vzorků, podobně jako algoritmus FGSM. Tyto algoritmy použijeme na datasety MNIST, SVHT a CIFAR a vytvoříme sadu potenciálně nepřátelských vzorků a ukážeme, že v nich existují vzorky, které člověk klasifikuje jinak než stroj. Dále ukážeme, že náš typ útoku dokáže obejít bežně používané obrany.cs_CZ
dc.description.abstractIn the thesis, we explore the prospects of creating adversarial examples using various generative models. We design two algorithms to create unrestricted adversarial examples by perturbing the vectors of latent representation and exploiting the target classifier's decision boundary properties. The first algorithm uses linear interpolation combined with bisection to extract candidate samples near the decision boundary of the targeted classifier. The second algorithm applies the idea behind the FGSM algorithm on vectors of latent representation and uses additional information from gradients to obtain better candidate samples. In an empirical study on MNIST, SVHN and CIFAR10 datasets, we show that the candidate samples contain adversarial examples, samples that look like some class to humans but are classified as a different class by machines. Additionally, we show that standard defence techniques are vulnerable to our attacks.en_US
dc.languageEnglishcs_CZ
dc.language.isoen_US
dc.publisherUniverzita Karlova, Matematicko-fyzikální fakultacs_CZ
dc.subjectHluboké učení|klasifikace|generativní modely|nepřátelské vzorycs_CZ
dc.subjectDeep learning|classification|generative models|adversarial examplesen_US
dc.titleAdversarial examples design by deep generative modelsen_US
dc.typediplomová prácecs_CZ
dcterms.created2021
dcterms.dateAccepted2021-06-22
dc.description.departmentDepartment of Theoretical Computer Science and Mathematical Logicen_US
dc.description.departmentKatedra teoretické informatiky a matematické logikycs_CZ
dc.description.facultyMatematicko-fyzikální fakultacs_CZ
dc.description.facultyFaculty of Mathematics and Physicsen_US
dc.identifier.repId212255
dc.title.translatedTvorba nepřátelských vzorů hlubokými generativními modelycs_CZ
dc.contributor.refereePilát, Martin
thesis.degree.nameMgr.
thesis.degree.levelnavazující magisterskécs_CZ
thesis.degree.disciplineArtificial Intelligenceen_US
thesis.degree.disciplineUmělá inteligencecs_CZ
thesis.degree.programInformatikacs_CZ
thesis.degree.programComputer Scienceen_US
uk.thesis.typediplomová prácecs_CZ
uk.taxonomy.organization-csMatematicko-fyzikální fakulta::Katedra teoretické informatiky a matematické logikycs_CZ
uk.taxonomy.organization-enFaculty of Mathematics and Physics::Department of Theoretical Computer Science and Mathematical Logicen_US
uk.faculty-name.csMatematicko-fyzikální fakultacs_CZ
uk.faculty-name.enFaculty of Mathematics and Physicsen_US
uk.faculty-abbr.csMFFcs_CZ
uk.degree-discipline.csUmělá inteligencecs_CZ
uk.degree-discipline.enArtificial Intelligenceen_US
uk.degree-program.csInformatikacs_CZ
uk.degree-program.enComputer Scienceen_US
thesis.grade.csVýborněcs_CZ
thesis.grade.enExcellenten_US
uk.abstract.csV této práci zkoumáme možnost tvorby nepřátelských vzorků pomocí generativních modelů. Použijeme generativní modely k vytvoření nepřátelských vzorků pomocí perturbace latentních vektorů a využití některých vlastností klasifikátoru. Součástí práce je návrh dvou algoritmů. První algoritmus využívá lineární interpolace v kombinaci s bisekcí k získání vzorků z rozhodovací hranice klasifikátoru. Druhý využívá gradient k vytvoření potenciálně nepřátelských vzorků, podobně jako algoritmus FGSM. Tyto algoritmy použijeme na datasety MNIST, SVHT a CIFAR a vytvoříme sadu potenciálně nepřátelských vzorků a ukážeme, že v nich existují vzorky, které člověk klasifikuje jinak než stroj. Dále ukážeme, že náš typ útoku dokáže obejít bežně používané obrany.cs_CZ
uk.abstract.enIn the thesis, we explore the prospects of creating adversarial examples using various generative models. We design two algorithms to create unrestricted adversarial examples by perturbing the vectors of latent representation and exploiting the target classifier's decision boundary properties. The first algorithm uses linear interpolation combined with bisection to extract candidate samples near the decision boundary of the targeted classifier. The second algorithm applies the idea behind the FGSM algorithm on vectors of latent representation and uses additional information from gradients to obtain better candidate samples. In an empirical study on MNIST, SVHN and CIFAR10 datasets, we show that the candidate samples contain adversarial examples, samples that look like some class to humans but are classified as a different class by machines. Additionally, we show that standard defence techniques are vulnerable to our attacks.en_US
uk.file-availabilityV
uk.grantorUniverzita Karlova, Matematicko-fyzikální fakulta, Katedra teoretické informatiky a matematické logikycs_CZ
thesis.grade.code1
uk.publication-placePrahacs_CZ
uk.thesis.defenceStatusO


Soubory tohoto záznamu

Thumbnail
Thumbnail
Thumbnail
Thumbnail
Thumbnail
Thumbnail

Tento záznam se objevuje v následujících sbírkách

Zobrazit minimální záznam


© 2017 Univerzita Karlova, Ústřední knihovna, Ovocný trh 560/5, 116 36 Praha 1; email: admin-repozitar [at] cuni.cz

Za dodržení všech ustanovení autorského zákona jsou zodpovědné jednotlivé složky Univerzity Karlovy. / Each constituent part of Charles University is responsible for adherence to all provisions of the copyright law.

Upozornění / Notice: Získané informace nemohou být použity k výdělečným účelům nebo vydávány za studijní, vědeckou nebo jinou tvůrčí činnost jiné osoby než autora. / Any retrieved information shall not be used for any commercial purposes or claimed as results of studying, scientific or any other creative activities of any person other than the author.

DSpace software copyright © 2002-2015  DuraSpace
Theme by 
@mire NV