Cílem mnoha klasifikačních algoritmů je eliminace vysvětlujících proměnných, čímž je možné dosáhnou vyšší stability klasifikátoru. To může vést na optimalizační úlohy s omezením na tzv. sparsitu neboli řídkost řešení, tj. počet nenulových prvků. Takové úlohy mohou být vysoce výpočetně náročné, proto se často přistupuje k aproximaci a penalizaci. Cílem řešitele bude nastudovat si různé přístupy, ty poté vyložit a diskutovat jejich konvergenci, případně se zaměřit na výpočetní postupy. Součásti práce bude krátká numerická ilustrace.
References
Y. Zhang, H. Zhang, Y. Tian: Sparse multiple instance learning with non-convex penalty. Neurocomputing 391, 2020, 142-156.
M. Branda: Sparsity and regularization in portfolio selection problems. Managing and Modelling of Financial Risks, Ostrava, 2018, 45-52.