Creating Adversarial Examples in Machine Learning
| Název práce v češtině: | Vytváření matoucích vzorů ve strojovém učení |
|---|---|
| Název v anglickém jazyce: | Creating Adversarial Examples in Machine Learning |
| Klíčová slova: | Nepřátelské vzory|Hluboké učení|Klasifikace obrazu|Evoluční algoritmy |
| Klíčová slova anglicky: | Adversarial examples|{Deep Learning}|{Image classification}|{Evolutionary Algorithms |
| Akademický rok vypsání: | 2019/2020 |
| Typ práce: | diplomová práce |
| Jazyk práce: | angličtina |
| Ústav: | Katedra teoretické informatiky a matematické logiky (32-KTIML) |
| Vedoucí / školitel: | doc. Mgr. Martin Pilát, Ph.D. |
| Řešitel: | skrytý - zadáno a potvrzeno stud. odd. |
| Datum přihlášení: | 04.02.2020 |
| Datum zadání: | 05.02.2020 |
| Datum potvrzení stud. oddělením: | 17.02.2020 |
| Datum a čas obhajoby: | 04.02.2021 08:30 |
| Datum odevzdání elektronické podoby: | 06.01.2021 |
| Datum odevzdání tištěné podoby: | 06.01.2021 |
| Datum proběhlé obhajoby: | 04.02.2021 |
| Oponenti: | Mgr. Roman Neruda, CSc. |
| Zásady pro vypracování |
| Strojové učení dosáhlo v posledních letech mnoha významných úspěchů. Ukazuje se ale, že většina modelů je citlivá na tzv. matoucí vzory - to jsou např. vzory upravené tak, že člověk není schopen tuto úpravu rozpoznat, ale modely strojového učení klasifikují takto upravený vzor špatně. Dalším typem matoucího vzoru může být vstup, který člověk rozpozná pouze jako šum, ale model strojového učení jej s vysokou konfidencí klasifikuje jako jednu z cílových kategorií. V poslední době je téma obrany proti matoucím vzorům a hledání matoucích vzorů velmi intenzivně studováno. Cílem této práce je právě hledání matoucích vzorů, které budou schopné porážet moderní metody obrany.
Studentka nastuduje dostupnou literaturu týkající se vytváření matoucích vzorů a obrany proti nim. Na základě získaných znalostí potom navrhne postupy, které budou schopné vytvářet matoucí vzory schopné porazit moderní metody obrany. |
| Seznam odborné literatury |
| [1] Ian Goodfellow and Yoshua Bengio and Aaron Courville. Deep Learning. MIT Press, 2016. ISBN: 978-0-26-203561-3
[2] Ian J. Goodfellow, Jonathon Shlens, Christian Szegedy. Explaining and Harnessing Adversarial Examples. In: International Conference on Learning Representations 2015 (ICLR 2015). arXiv:1412.6572 [3] Alexey Kurakin, Ian J. Goodfellow, Samy Bengio. Adversial Machine Learning at Scale. In: International Conference on Learning Representations 2017 (ICLR 2017). arXiv:1611.01236v2 [4] Szegedy, Christian, Zaremba, Wojciech, Sutskever, Ilya, Bruna, Joan, Erhan, Dumitru, Goodfellow, Ian J.,and Fergus, Rob. Intriguing properties of neural networks. In: International Conference on Learning Representations 2014 (ICLR 2014), abs/1312.6199, 2014 [5] Tao Yu, Shengyuan Hu, Chuan Guo, Wei-Lun Chao, Kilian Q. Weinberger. A New Defense Against Adversarial Images: Turning a Weakness into a Strength. In: NeurIPS 2019. arXiv:1910.07629v2 |
- zadáno a potvrzeno stud. odd.