Субградієнтні методи - це ітераційні методи вирішення задач мінімізації опуклості . Спочатку розроблений Наумом Шором та іншими у 1960-70-і роки, субградієнтні методи є збіжними, коли застосовуються навіть до недиференційованої цільової функції. Коли цільова функція є диференційованою, методи субградієнта для необмежених задач використовують той самий напрямок пошуку, що і метод найкрутішого спуску.
Субградієнтні методи повільніші, ніж метод Ньютона, коли застосовуються для мінімізації подвійних безперервно диференційованих опуклих функцій. Однак метод Ньютона не зможе сходитись із проблемами, які мають недиференційовані перегини.
В останні роки були запропоновані деякі методи внутрішніх точок для вирішення проблем мінімізації опуклих, але методи граградієнтного прогнозування та пов'язані з ним методи спуску залишаються конкурентоспроможними. Для проблем з мінімізацією опуклості з дуже великою кількістю розмірів підходять методи градієнтного проектування, оскільки вони потребують невеликого зберігання.
Субградієнтні методи проєкції часто застосовуються до масштабних задач з технікою розкладання. Такі методи розкладання часто дозволяють простий розподілений метод для проблеми.
Класичні субградієнтні правила
Припустим є опуклою функцією з доменом . Класичний субградієнтний метод ітерується
де позначає підградієнт у , і є ітерація . Якщо є диференційованим, то єдиним його градієнтом є градієнтний вектор . Може статися так не є напрямком спуску для у . Тому ми ведемо список що відслідковує найнижнє значення цільової функції, знайдене до цих пір, тобто
Багато різних типів правил вибору розміру кроків використовуються субградієнтними методами. У цій статті зазначаються п'ять класичних правил ступінчастості, для яких відомі докази конвергенції:
- Постійний розмір кроку,
- Постійна довжина кроку, , що дає
- Квадратно підсумовані розміри кроків, тобто будь-які розміри кроків, що задовольняють
- Непідсумоване зменшення, тобто будь-які розміри кроків, що задовольняють
- Нерозмірні зменшувальні довжини кроків, тобто , де
Для всіх п’яти правил ступінчасті розміри визначаються "офлайн", перш ніж метод ітерується; розміри ступенів не залежать від попередніх ітерацій. Ця "офлайн" властивість субградієнтних методів відрізняється від "он-лайн" ступеневих правил, що застосовуються для методів спуску для диференційованих функцій: Багато методів мінімізації диференційованих функцій задовольняють достатнім умовам Вулфа для збіжності, де розміри кроків зазвичай залежать від поточної точки та поточного напрямоку пошуку. Широке обговорення правил покрокового визначення субградієнтних методів, включаючи інкрементальні версії, подано у книгах Берцекаса та Берцекаса, Недіка та Оздаглара.
Результати збіжності
Для постійних довжин кроків та масштабованих субградієнтів, що мають евклідову норму, рівну одиниці, метод субградієнта сходиться до довільно близького наближення до мінімального значення, тобто
- в результаті Шорт .
Ці класичні субградієнтні методи мають низьку продуктивність і більше не рекомендуються для загального використання. Однак вони все ще широко використовуються в спеціалізованих програмах, оскільки вони прості і їх можна легко адаптувати, щоб скористатися особливою структурою проблеми, що існує.
Методи субградієнтного проектування та розшарування
Протягом 1970-х років Клод Лемарешаль та Філ. Вулф запропонував "методи розшарування" спуску для проблем мінімізації опуклості. Значення терміна "методи зв’язку" значно змінилося з того часу. Сучасні версії та повний аналіз збіжності надав Ківіль. Сучасні методи розшарування часто використовують правила "контролю рівня " для вибору ступеневих розмірів, розробляючи методики методу "субградієнт-проєкція" Бориса Т. Поляка (1969). Однак існують проблеми, за якими методи зв’язку пропонують невелику перевагу перед методами субградієнтного проектування.
Обмежена оптимізація
Проектований субградієнт
Одним з розширень методу субградієнта є прогнозований метод субградієнта, який вирішує обмежену задачу оптимізації.
- мінімізувати за умови
де являє собою опуклий набір . Метод проектування субградієнта використовує ітерацію
де є проєкцією на і є будь-яким субградієнтом у
Загальні обмеження
Метод субградієнта може бути розширений для вирішення проблеми з обмеженням нерівності
- мінімізувати за умови
де опуклі. Алгоритм приймає таку ж форму, як і необмежений випадок
де - розмір кроку, і є субградієнтом цілі або однією з функцій обмеження при Візьмемо
де позначає піддиференціал . Якщо поточна точка підходить, алгоритм використовує об'єктивний підградієнт; якщо поточна точка непідходить, алгоритм вибирає субградієнт будь-якого порушеного обмеження.
Список літератури
- (2015). Convex Optimization Algorithms (вид. Second). Belmont, MA.: Athena Scientific. ISBN .
- Bertsekas, Dimitri P.; Nedic, Angelia; Ozdaglar, Asuman (2003). Convex Analysis and Optimization (вид. Second). Belmont, MA.: Athena Scientific. ISBN .
- (2001). Lagrangian relaxation. У Michael Jünger and Denis Naddef (ред.). Computational combinatorial optimization: Papers from the Spring School held in Schloß Dagstuhl, May 15–19, 2000. Lecture Notes in Computer Science. Т. 2241. Berlin: Springer-Verlag. с. 112—156. doi:10.1007/3-540-45586-8_4. ISBN . MR 1900016.
- Kiwiel, Krzysztof C.; Larsson, Torbjörn; Lindberg, P. O. (August 2007). . Mathematics of Operations Research. 32: 669—686. doi:10.1287/moor.1070.0261. MR 2348241. Архів оригіналу за 26 липня 2011. Процитовано 24 грудня 2019.
- (1999). Nonlinear Programming (вид. Second). Cambridge, MA.: Athena Scientific. ISBN .
- Kiwiel, Krzysztof (1985). Methods of Descent for Nondifferentiable Optimization. Berlin: Springer Verlag. с. 362. ISBN . MR 0797754.
Подальше читання
- (1999). Nonlinear Programming. Belmont, MA.: Athena Scientific. ISBN .
- Bertsekas, Dimitri P.; Nedic, Angelia; Ozdaglar, Asuman (2003). Convex Analysis and Optimization (вид. Second). Belmont, MA.: Athena Scientific. ISBN .
- (2015). Convex Optimization Algorithms. Belmont, MA.: Athena Scientific. ISBN .
- (1985). Minimization Methods for Non-differentiable Functions. Springer-Verlag. ISBN .
- , Andrzej (2006). Nonlinear Optimization. Princeton, NJ: Princeton University Press. с. xii+454. ISBN . MR 2199043.
Зовнішні посилання
- EE364A та EE364B, послідовність курсу опуклої оптимізації Стенфорда.
Вікіпедія, Українська, Україна, книга, книги, бібліотека, стаття, читати, завантажити, безкоштовно, безкоштовно завантажити, mp3, відео, mp4, 3gp, jpg, jpeg, gif, png, малюнок, музика, пісня, фільм, книга, гра, ігри, мобільний, телефон, android, ios, apple, мобільний телефон, samsung, iphone, xiomi, xiaomi, redmi, honor, oppo, nokia, sonya, mi, ПК, web, Інтернет
Subgradiyentni metodi ce iteracijni metodi virishennya zadach minimizaciyi opuklosti Spochatku rozroblenij Naumom Shorom ta inshimi u 1960 70 i roki subgradiyentni metodi ye zbizhnimi koli zastosovuyutsya navit do nediferencijovanoyi cilovoyi funkciyi Koli cilova funkciya ye diferencijovanoyu metodi subgradiyenta dlya neobmezhenih zadach vikoristovuyut toj samij napryamok poshuku sho i metod najkrutishogo spusku Subgradiyentni metodi povilnishi nizh metod Nyutona koli zastosovuyutsya dlya minimizaciyi podvijnih bezperervno diferencijovanih opuklih funkcij Odnak metod Nyutona ne zmozhe shoditis iz problemami yaki mayut nediferencijovani peregini V ostanni roki buli zaproponovani deyaki metodi vnutrishnih tochok dlya virishennya problem minimizaciyi opuklih ale metodi gragradiyentnogo prognozuvannya ta pov yazani z nim metodi spusku zalishayutsya konkurentospromozhnimi Dlya problem z minimizaciyeyu opuklosti z duzhe velikoyu kilkistyu rozmiriv pidhodyat metodi gradiyentnogo proektuvannya oskilki voni potrebuyut nevelikogo zberigannya Subgradiyentni metodi proyekciyi chasto zastosovuyutsya do masshtabnih zadach z tehnikoyu rozkladannya Taki metodi rozkladannya chasto dozvolyayut prostij rozpodilenij metod dlya problemi Klasichni subgradiyentni pravilaPripustim f Rn R displaystyle f mathbb R n to mathbb R ye opukloyu funkciyeyu z domenom Rn displaystyle mathbb R n Klasichnij subgradiyentnij metod iteruyetsya x k 1 x k akg k displaystyle x k 1 x k alpha k g k de g k displaystyle g k poznachaye pidgradiyent f displaystyle f u x k displaystyle x k i x k displaystyle x k ye kth displaystyle k th iteraciya x displaystyle x Yaksho f displaystyle f ye diferencijovanim to yedinim jogo gradiyentom ye gradiyentnij vektor f displaystyle nabla f Mozhe statisya tak g k displaystyle g k ne ye napryamkom spusku dlya f displaystyle f u x k displaystyle x k Tomu mi vedemo spisok fbest displaystyle f rm best sho vidslidkovuye najnizhnye znachennya cilovoyi funkciyi znajdene do cih pir tobto fbest k min fbest k 1 f x k displaystyle f rm best k min f rm best k 1 f x k Bagato riznih tipiv pravil viboru rozmiru krokiv vikoristovuyutsya subgradiyentnimi metodami U cij statti zaznachayutsya p yat klasichnih pravil stupinchastosti dlya yakih vidomi dokazi konvergenciyi Postijnij rozmir kroku ak a displaystyle alpha k alpha Postijna dovzhina kroku ak g g k 2 displaystyle alpha k gamma lVert g k rVert 2 sho daye x k 1 x k 2 g displaystyle lVert x k 1 x k rVert 2 gamma Kvadratno pidsumovani rozmiri krokiv tobto bud yaki rozmiri krokiv sho zadovolnyayutak 0 k 1 ak2 lt k 1 ak displaystyle alpha k geq 0 qquad sum k 1 infty alpha k 2 lt infty qquad sum k 1 infty alpha k infty Nepidsumovane zmenshennya tobto bud yaki rozmiri krokiv sho zadovolnyayutak 0 limk ak 0 k 1 ak displaystyle alpha k geq 0 qquad lim k to infty alpha k 0 qquad sum k 1 infty alpha k infty Nerozmirni zmenshuvalni dovzhini krokiv tobto ak gk g k 2 displaystyle alpha k gamma k lVert g k rVert 2 degk 0 limk gk 0 k 1 gk displaystyle gamma k geq 0 qquad lim k to infty gamma k 0 qquad sum k 1 infty gamma k infty Dlya vsih p yati pravil stupinchasti rozmiri viznachayutsya oflajn persh nizh metod iteruyetsya rozmiri stupeniv ne zalezhat vid poperednih iteracij Cya oflajn vlastivist subgradiyentnih metodiv vidriznyayetsya vid on lajn stupenevih pravil sho zastosovuyutsya dlya metodiv spusku dlya diferencijovanih funkcij Bagato metodiv minimizaciyi diferencijovanih funkcij zadovolnyayut dostatnim umovam Vulfa dlya zbizhnosti de rozmiri krokiv zazvichaj zalezhat vid potochnoyi tochki ta potochnogo napryamoku poshuku Shiroke obgovorennya pravil pokrokovogo viznachennya subgradiyentnih metodiv vklyuchayuchi inkrementalni versiyi podano u knigah Bercekasa ta Bercekasa Nedika ta Ozdaglara Rezultati zbizhnosti Dlya postijnih dovzhin krokiv ta masshtabovanih subgradiyentiv sho mayut evklidovu normu rivnu odinici metod subgradiyenta shoditsya do dovilno blizkogo nablizhennya do minimalnogo znachennya tobto limk fbest k f lt ϵ displaystyle lim k to infty f rm best k f lt epsilon v rezultati Short Ci klasichni subgradiyentni metodi mayut nizku produktivnist i bilshe ne rekomenduyutsya dlya zagalnogo vikoristannya Odnak voni vse she shiroko vikoristovuyutsya v specializovanih programah oskilki voni prosti i yih mozhna legko adaptuvati shob skoristatisya osoblivoyu strukturoyu problemi sho isnuye Metodi subgradiyentnogo proektuvannya ta rozsharuvannyaProtyagom 1970 h rokiv Klod Lemareshal ta Fil Vulf zaproponuvav metodi rozsharuvannya spusku dlya problem minimizaciyi opuklosti Znachennya termina metodi zv yazku znachno zminilosya z togo chasu Suchasni versiyi ta povnij analiz zbizhnosti nadav Kivil Suchasni metodi rozsharuvannya chasto vikoristovuyut pravila kontrolyu rivnya dlya viboru stupenevih rozmiriv rozroblyayuchi metodiki metodu subgradiyent proyekciya Borisa T Polyaka 1969 Odnak isnuyut problemi za yakimi metodi zv yazku proponuyut neveliku perevagu pered metodami subgradiyentnogo proektuvannya Obmezhena optimizaciyaProektovanij subgradiyent Odnim z rozshiren metodu subgradiyenta ye prognozovanij metod subgradiyenta yakij virishuye obmezhenu zadachu optimizaciyi minimizuvati f x displaystyle f x za umovi x C displaystyle x in mathcal C de C displaystyle mathcal C yavlyaye soboyu opuklij nabir Metod proektuvannya subgradiyenta vikoristovuye iteraciyu x k 1 P x k akg k displaystyle x k 1 P left x k alpha k g k right de P displaystyle P ye proyekciyeyu na C displaystyle mathcal C i g k displaystyle g k ye bud yakim subgradiyentom f displaystyle f u x k displaystyle x k Zagalni obmezhennya Metod subgradiyenta mozhe buti rozshirenij dlya virishennya problemi z obmezhennyam nerivnosti minimizuvati f0 x displaystyle f 0 x za umovi fi x 0 i 1 m displaystyle f i x leq 0 quad i 1 dots m de fi displaystyle f i opukli Algoritm prijmaye taku zh formu yak i neobmezhenij vipadok x k 1 x k akg k displaystyle x k 1 x k alpha k g k de ak gt 0 displaystyle alpha k gt 0 rozmir kroku i g k displaystyle g k ye subgradiyentom cili abo odniyeyu z funkcij obmezhennya pri x displaystyle x Vizmemo g k f0 x if fi x 0 i 1 m fj x for some j such that fj x gt 0 displaystyle g k begin cases partial f 0 x amp text if f i x leq 0 forall i 1 dots m partial f j x amp text for some j text such that f j x gt 0 end cases de f displaystyle partial f poznachaye piddiferencial f displaystyle f Yaksho potochna tochka pidhodit algoritm vikoristovuye ob yektivnij pidgradiyent yaksho potochna tochka nepidhodit algoritm vibiraye subgradiyent bud yakogo porushenogo obmezhennya Spisok literaturi 2015 Convex Optimization Algorithms vid Second Belmont MA Athena Scientific ISBN 978 1 886529 28 1 Bertsekas Dimitri P Nedic Angelia Ozdaglar Asuman 2003 Convex Analysis and Optimization vid Second Belmont MA Athena Scientific ISBN 1 886529 45 0 2001 Lagrangian relaxation U Michael Junger and Denis Naddef red Computational combinatorial optimization Papers from the Spring School held in Schloss Dagstuhl May 15 19 2000 Lecture Notes in Computer Science T 2241 Berlin Springer Verlag s 112 156 doi 10 1007 3 540 45586 8 4 ISBN 3 540 42877 1 MR 1900016 Kiwiel Krzysztof C Larsson Torbjorn Lindberg P O August 2007 Mathematics of Operations Research 32 669 686 doi 10 1287 moor 1070 0261 MR 2348241 Arhiv originalu za 26 lipnya 2011 Procitovano 24 grudnya 2019 1999 Nonlinear Programming vid Second Cambridge MA Athena Scientific ISBN 1 886529 00 0 Kiwiel Krzysztof 1985 Methods of Descent for Nondifferentiable Optimization Berlin Springer Verlag s 362 ISBN 978 3540156420 MR 0797754 Podalshe chitannya 1999 Nonlinear Programming Belmont MA Athena Scientific ISBN 1 886529 00 0 Bertsekas Dimitri P Nedic Angelia Ozdaglar Asuman 2003 Convex Analysis and Optimization vid Second Belmont MA Athena Scientific ISBN 1 886529 45 0 2015 Convex Optimization Algorithms Belmont MA Athena Scientific ISBN 978 1 886529 28 1 1985 Minimization Methods for Non differentiable Functions Springer Verlag ISBN 0 387 12763 1 Andrzej 2006 Nonlinear Optimization Princeton NJ Princeton University Press s xii 454 ISBN 978 0691119151 MR 2199043 Zovnishni posilannyaEE364A ta EE364B poslidovnist kursu opukloyi optimizaciyi Stenforda