Subgradientní algoritmus pro konvexní optimalizační úlohy se stochastickým rozšířením
Subgradient algoritmh for convex optimization problems with a stochastic extension
bakalářská práce (OBHÁJENO)
Zobrazit/ otevřít
Trvalý odkaz
http://hdl.handle.net/20.500.11956/200733Identifikátory
SIS: 270273
Kolekce
- Kvalifikační práce [11983]
Autor
Vedoucí práce
Oponent práce
Procházka, Vít
Fakulta / součást
Matematicko-fyzikální fakulta
Obor
Finanční matematika
Katedra / ústav / klinika
Katedra pravděpodobnosti a matematické statistiky
Datum obhajoby
19. 6. 2025
Nakladatel
Univerzita Karlova, Matematicko-fyzikální fakultaJazyk
Čeština
Známka
Výborně
Klíčová slova (česky)
matematická optimalizace|subgradientní algoritmus|konvergence|stochastické rozšířeníKlíčová slova (anglicky)
mathematical optimization|subgradient algorithm|convergence|stochastic extensionCílem práce bylo popsat a analyzovat subgradientní algoritmus pro konvexní optimali- zační úlohy a jeho stochastické rozšíření s náhodným výběrem subgradientů. V první části jsou představeny gradientní metody s exaktním line search pro hladké konvexní funkce. Druhá kapitola rozšiřuje tyto přístupy o subgradientní algoritmy pro nediferencovatelné konvexní účelové funkce a obsahuje důkazy jejich konvergence pro konstantní i klesající volbu kroků. Třetí část formuluje stochastickou verzi metody a využívá supermartingá- lovou analýzu k důkazu konvergence skoro jistě k jedinému optimu. Numerické příklady ilustrují průběhy gradientního i subgradientního algoritmu.
The aim of this thesis was to depict and analyze a subgradient algorithm for convex optimization problems and its stochastic extension with random subgradient sampling. The first part introduces gradient methods with exact line search for smooth convex functions. The second chapter extends these approaches to subgradient algorithms for nondifferentiable convex objective functions and includes proofs of convergence for both constant and diminishing step-size rules. The third part formulates the method's stochas- tic version and employs supermartingale analysis to prove almost sure convergence to the unique optimum. Numerical examples illustrate the trajectories of both the gradient and subgradient algorithms.
