|
|
|
||
The course follows the course Fundamentals of Nonlinear Optimization organized in preceding term. In this course
we will focus on individual algorithms for solving different types of typically convex optimization problems. In
addition to the basic features of methods relating to their structure and convergence, the course provides an
overview of the methods used for problems without constraints as well as problems with constraints. Together with
description of methods themselves, we will often be interested in the suitability of the method for a given class of
problems or its convergence.
Last update: Kynčl Jan, doc. Mgr., Ph.D. (03.05.2018)
|
|
||
Pro zápočet je potřeba získat dostatečný počet bodů z projektu vypracovávaného během semestru a konzultovaného na cvičeních.
Účast na cvičení není povinná.
Bližší informace k možným projektům jsou k dispozici na stránce:
https://iuuk.mff.cuni.cz/~hartman/teach/ANO/
Přístup na stránky může obsahat i individuální informace a je chráněn heslem. Studentům je přístup poskytnut na začátku semestru. Last update: Hartman David, doc. Ing. et Ing., Ph.D. et Ph.D. (24.05.2019)
|
|
||
S. Boyd, L. Vandenberghe: Convex Optimization, Cambridge University Press, 2009 A. Ruszczynski: Nonlinear Optimization. Princeton University Press, 2006. L. Lukšan: Numerické optimalizační metody - nepodmíněná optimalizace. Technical Report n. 1152, UIVT AVČR, 2011. M. Maňas: Optimalizační metody. STNL, 1979. J. Nocedal, S. J. Wright: Numerical Optimization. 2nd edition, Springer, 2006. Last update: Kynčl Jan, doc. Mgr., Ph.D. (03.05.2018)
|
|
||
Zkouška je ústní a požadavky odpovídají sylabu předmětu v rozsahu, který byl presentován na přednášce. Zkouška může mít kontaktní nebo distanční formu.
Bližší informace k přednáškám i spolu s materiály k probíraným tématům jsou k dispozici na stránce:
https://iuuk.mff.cuni.cz/~hartman/teach/ANO/
Přístup na stránky může obsahat i individuální informace a je chráněn heslem. Studentům je přístup poskytnut na začátku semestru. Last update: Hartman David, doc. Ing. et Ing., Ph.D. et Ph.D. (22.09.2020)
|
|
||
1) Introduction to optimization methods without constraints ... general optimization method, order of methods, basic classification of methods 2) Convergence of methods ... Q-covergence and corresponding important classes of algorithms - linear, superlinear and quadratic, R-convergence and context of different definitions of convergence 3) Basic Gradient Methods ... Gradient Methods, Step Selection - linesearch, Step Selection Methods - Armijo, Goldstein, Wolfe, Intervals for Wolfe method 4) Gradient Methods and Newtonian Methods ... gradient methods and Newtonian Methods, Zoutendijk's theorem and its relation to convergence, the condition of strong convexity and the Lipschitz continuity of gradients. 5) Trust-region method ... various strategies to select step and direction of trust-region methods, Cauchy point, description of dogleg method, Sorensen lemma. 6) Quasi-Newtonian methods ... the principle of quasinewton methods, Hessian approximation, convergence of methods (Dennis-Moré), DFP, BFGS, L-BFGS and Broyden methods. 7) Conjugate gradient methods ... conjugate gradient methods, determination of direction, convergence for specific systems, preconditioning and PCG Methods, methods of Fletcher and Reeves Method and methods of Polak and Ribier. 8) Basic optimization with constraints ... basic problem of conditional optimization, KKT matrix and its use for the construction of constraint methods - active set, Newton method. 9) Barrier methods ... the principle of barrier methods, interior-point method for nonlinear tasks as an extension of the methods of linear, related method convergence. 10) Penal and barrier methods ... penalizing methods, barrier methods and their convergence Last update: Kynčl Jan, doc. Mgr., Ph.D. (03.05.2018)
|