Grafové neuronové sítě pro odhad výkonnosti při hledání architektur
Grafové neuronové sítě pro odhad výkonnosti při hledání architektur
diploma thesis (DEFENDED)
View/ Open
Permanent link
http://hdl.handle.net/20.500.11956/147689Identifiers
Study Information System: 235969
Collections
- Kvalifikační práce [10690]
Author
Advisor
Referee
Pilát, Martin
Faculty / Institute
Faculty of Mathematics and Physics
Discipline
Artificial Intelligence
Department
Department of Theoretical Computer Science and Mathematical Logic
Date of defense
2. 9. 2021
Publisher
Univerzita Karlova, Matematicko-fyzikální fakultaLanguage
English
Grade
Excellent
Keywords (Czech)
hledání architektur neuronových sítí|grafové neuronové sítě|AutoML|odhad výkonnostiKeywords (English)
neural architecture search|graph neural networks|AutoML|performance predictionV této práci jsme vytvořili novou metodu embeddingu architektur sítí pro využití při hledání architektury neuronových sítí Ů info-NAS. Náš model se učí predikovat výstupy trénovaných neuronových sítí na vstupních obra- zových datech. Jako vstupní data jsme zvolili dataset sítí NAS-Bench-101 a obrazový dataset CIFAR-10. Pro účely této úlohy jsme rozšířili existu- jící unsupervised grafový variační autoencoder, arch2vec, a rozšířený model trénujeme na označených i neoznačených architekturách sítí semi-supervised způsobem. Pro vyhodnocení našeho přístupu jsme analyzovali, jak se náš model na těchto datech učí, také jsme jej porovnali s původním modelem, a nakonec jsme oba modely vyhodnotili na úloze hledání sítí na NAS-Bench- 101 a při predikování výkonnosti sítě. 1
In this work we present a novel approach to network embedding for neural architecture search - info-NAS. The model learns to predict the output fea- tures of a trained convolutional neural network on a set of input images. We use the NAS-Bench-101 search space as the neural architecture dataset, and the CIFAR-10 as the image dataset. For the purpose of this task, we extend an existing unsupervised graph variational autoencoder, arch2vec, by jointly training on unlabeled and labeled neural architectures in a semi-supervised manner. To evaluate our approach, we analyze how our model learns on the data, compare it to the original arch2vec, and finally, we evaluate both mod- els on the NAS-Bench-101 search task and on the performance prediction task. 1