Exploring the vulnerabilities of real-life AI systems against adversarial attacks
Výzkum zranitelnosti reálných systémů umělé inteligence vůči adversariálním útokům
bakalářská práce (OBHÁJENO)
Zobrazit/ otevřít
Trvalý odkaz
http://hdl.handle.net/20.500.11956/148267Identifikátory
SIS: 236277
Kolekce
- Kvalifikační práce [11976]
Autor
Vedoucí práce
Oponent práce
Pilát, Martin
Fakulta / součást
Matematicko-fyzikální fakulta
Obor
Obecná informatika
Katedra / ústav / klinika
Katedra teoretické informatiky a matematické logiky
Datum obhajoby
10. 9. 2021
Nakladatel
Univerzita Karlova, Matematicko-fyzikální fakultaJazyk
Angličtina
Známka
Výborně
Klíčová slova (česky)
adversariální útoky|hluboké učení|black-box|bezpečnost umělé inteligenceKlíčová slova (anglicky)
adversarial attack|deep learning|black-box|AI securityCílem práce je prozkoumat zranitelnost hlubokých klasifikátorů obrazu v realistických scénářích. Prozkoumali jsme několik operací augmentací a navrhli kombinace vhodných metod útoků black-box a white-box. Výsledkem práce je implementovaný systém, který úspěšně napadá Google Cloud Vision API. 1
The goal of this thesis is to explore the vulnerability of deep neural image classifiers in a realistic scenario. Several augmentation operations have been explored and a combination of suitable white box and black box methods have been proposed. As a result, we have implemented a system that successfully attacks the Google Cloud Vision API. 1
