Exploring the vulnerabilities of real-life AI systems against adversarial attacks
Výzkum zranitelnosti reálných systémů umělé inteligence vůči adversariálním útokům
bachelor thesis (DEFENDED)

View/ Open
Permanent link
http://hdl.handle.net/20.500.11956/148267Identifiers
Study Information System: 236277
Collections
- Kvalifikační práce [9699]
Author
Advisor
Referee
Pilát, Martin
Faculty / Institute
Faculty of Mathematics and Physics
Discipline
General Computer Science
Department
Department of Theoretical Computer Science and Mathematical Logic
Date of defense
10. 9. 2021
Publisher
Univerzita Karlova, Matematicko-fyzikální fakultaLanguage
English
Grade
Excellent
Keywords (Czech)
adversariální útoky|hluboké učení|black-box|bezpečnost umělé inteligenceKeywords (English)
adversarial attack|deep learning|black-box|AI securityCílem práce je prozkoumat zranitelnost hlubokých klasifikátorů obrazu v realistických scénářích. Prozkoumali jsme několik operací augmentací a navrhli kombinace vhodných metod útoků black-box a white-box. Výsledkem práce je implementovaný systém, který úspěšně napadá Google Cloud Vision API. 1
The goal of this thesis is to explore the vulnerability of deep neural image classifiers in a realistic scenario. Several augmentation operations have been explored and a combination of suitable white box and black box methods have been proposed. As a result, we have implemented a system that successfully attacks the Google Cloud Vision API. 1