Poslední úprava: doc. Mgr. Barbora Vidová Hladká, Ph.D. (25.01.2018)
Přednáška (svým obsahem úvodní) pokryje teoretické základy a základní algoritmy strojového učení (SU)
nezávisle na širokém spektru mezioborových aplikací, ve kterých SU našlo své místo. Cvičení jsou aplikačně
závislá - věnujeme se zvládnutí přístupů SU použitých v úlohách z různých oblastí.
Přednáška je určena studentům bakalářského studia všech oborů MFF. Předpokládají se základní znalosti z
pravděpodobnosti a statistiky. Přednáška se koná buď v českém nebo v anglickém jazyce, dle zájmu studentů.
Poslední úprava: doc. Mgr. Barbora Vidová Hladká, Ph.D. (25.01.2018)
This one-semester introductory course provides both theoretical background and the basic machine learning
algorithms explained independently on a broad spectrum of multidisciplinary applications. The lab sessions are
application-dependent and aim at practical experience with machine learning applications related to different
fields.
This course is intended for students from the bachelor study programme. Introductory knowledge of probability and
statistics is required. The course can be taught either in Czech or in English, based on students' preference.
Literatura -
Poslední úprava: doc. Mgr. Barbora Vidová Hladká, Ph.D. (25.01.2018)
6. Učení založené na příkladech: kritérium vzdálenosti, algoritmus K nejbližších sousedů, diskrétní/spojité případy, prokletí dimenzionality.
7. Metoda podpůrných vektorů: hranice lineárního oddělovače (klasifikátoru), (ne)lineární oddělovač, kvadratické programování, jádrové algoritmy.
8. Kombinace klasifikátorů: hlasování, bagging, boosting, AdaBoost, metoda náhodných lesů.
9. Logistická regrese.
10. Teoretické aspekty strojového učení: učení Probably Approximately Correct, Vapnik-Chervonenkisova dimenze.
11. Shlukování: dendrogramy, (ne)hierarchické shlukování, algoritmus K průměrů.
Poslední úprava: T_UFAL (10.05.2017)
1. Introduction: what is machine learning, motivation examples, interdisciplinary nature of machine learning, supervised vs. unsupervised learning, machine learning and its applications.
6. Instance-based learning: distance criteria, the k-NN algorithm, the discrete and continuous case, the curse of dimensionality.
7. Support vector machines: the classifier separator, finding the hyperplane, the linear and non-linear separation, learning the maximum margin classifier via quadratic programming, Kernel tricks.
8. Ensemble methods: combination of classifiers, voting, bagging, boosting, AdaBoost, Random Forests.
9. Logistic Regression.
10. Probably Approximately Correct framework: PAC learnability, the Vapnik-Chervonenkis dimension.
11. Clustering: dendrograms, (non)hierarchical clustering, the K-means algorithm.