Метод прямого пошуку — це метод математичної оптимізації, який не використовує інформацію про похідну в її класичному розумінні для пошуку оптимальних рішень: іноді інформація про похідну цільової функції f недоступна, ненадійна або непрактична для використання. Наприклад, функція f може бути негладкою, трудомісткою для оцінки, або якимось чином спотвореною шумами, тому методи, що спираються на похідні або їх наближення за допомогою скінченних різниць, є малопридатними. Проблема пошуку оптимальних точок у таких ситуаціях називається оптимізацією без похідних, алгоритми, які не використовують похідні або скінченні різниці, називаються алгоритмами прямого пошуку.
Вступ
Задача, яку необхідно вирішити, полягає в оптимізації цільової функції для множини (зазвичай ), тобто потрібно знайти таке, що для всіх .
Загальний підхід полягає в ітераційному покращенні параметра шляхом локального підйому на гору в ландшафті цільової функції. Алгоритми на основі похідних використовують інформацію про похідну для того, щоб знайти найкращий напрямок пошуку, оскільки, наприклад, градієнт дає напрямок найкрутішого підйому. Оптимізація на основі похідних ефективна при знаходженні локальних оптимумів для гладких, нерозривних функцій. Однак у них можуть виникнути проблеми, наприклад коли множина є незв'язною, або функція набуває лише цілих значень, або коли функція трудомістка для оцінки, або є негладкою, так що похідна (її числові наближення) не надає корисної інформації. Інша проблема — коли функція є мультимодальною, і в цьому випадку методи на основі локальних похідних дають лише локальний оптимум, та можуть упустити глобальний.
У методах прямого пошуку застосовуються різні способи для розв'язання цих проблем, використовуючи лише значення функції , без похідних. Можна довести, що деякі з цих способів виявляють оптимуми, а деякі є скоріше метаевристичними, оскільки, як правило, проблеми складніше розв'язувати у порівнянні з опуклою оптимізацією. Для них мета полягає в тому, щоб ефективно знайти «добрі» значення параметрів, які можуть бути майже оптимальними за наявності достатньої кількості ресурсів, але гарантії оптимальності зазвичай не можуть бути надані. Слід мати на увазі, що задачі різноманітні, тому зазвичай не можна використовувати один алгоритм для вирішення всіх видів задач.
Алгоритми
До відомих алгоритмів прямого пошуку належать:
- Байєсівська оптимізація
- Координатний спуск і [en]
- Алгоритм зозулі
- [en]
- Стратегії еволюції, стратегії природної еволюції (CMA-ES, xNES, SNES)
- Генетичний алгоритм
- Алгоритм MCS
- Метод Нелдера – Міда
- Метод рою часток
- Метод Гука — Дживса
- Випадковий пошук (включно з [en])
- Алгоритм імітації відпалу
- Субградієнтний метод
Див. також
Примітки
- Conn, A. R.; ; Vicente, L. N. (2009). . MPS-SIAM Book Series on Optimization. Philadelphia: SIAM. Архів оригіналу за 28 червня 2022. Процитовано 18 січня 2014.
Посилання
- Audet, Charles; Kokkolaras, Michael (2016). Blackbox and derivative-free optimization: theory, algorithms and applications. Optimization and Engineering. 17: 1—2. doi:10.1007/s11081-016-9307-4.
Вікіпедія, Українська, Україна, книга, книги, бібліотека, стаття, читати, завантажити, безкоштовно, безкоштовно завантажити, mp3, відео, mp4, 3gp, jpg, jpeg, gif, png, малюнок, музика, пісня, фільм, книга, гра, ігри, мобільний, телефон, android, ios, apple, мобільний телефон, samsung, iphone, xiomi, xiaomi, redmi, honor, oppo, nokia, sonya, mi, ПК, web, Інтернет
Metod pryamogo poshuku ce metod matematichnoyi optimizaciyi yakij ne vikoristovuye informaciyu pro pohidnu v yiyi klasichnomu rozuminni dlya poshuku optimalnih rishen inodi informaciya pro pohidnu cilovoyi funkciyi f nedostupna nenadijna abo nepraktichna dlya vikoristannya Napriklad funkciya f mozhe buti negladkoyu trudomistkoyu dlya ocinki abo yakimos chinom spotvorenoyu shumami tomu metodi sho spirayutsya na pohidni abo yih nablizhennya za dopomogoyu skinchennih riznic ye malopridatnimi Problema poshuku optimalnih tochok u takih situaciyah nazivayetsya optimizaciyeyu bez pohidnih algoritmi yaki ne vikoristovuyut pohidni abo skinchenni riznici nazivayutsya algoritmami pryamogo poshuku VstupZadacha yaku neobhidno virishiti polyagaye v optimizaciyi cilovoyi funkciyi f A R displaystyle f colon A to mathbb R dlya mnozhini A displaystyle A zazvichaj A Rn displaystyle A subset mathbb R n tobto potribno znajti x0 A displaystyle x 0 in A take sho f x0 f x displaystyle f x 0 leqslant f x dlya vsih x A displaystyle x in A Zagalnij pidhid polyagaye v iteracijnomu pokrashenni parametra shlyahom lokalnogo pidjomu na goru v landshafti cilovoyi funkciyi Algoritmi na osnovi pohidnih vikoristovuyut informaciyu pro pohidnu f displaystyle f dlya togo shob znajti najkrashij napryamok poshuku oskilki napriklad gradiyent daye napryamok najkrutishogo pidjomu Optimizaciya na osnovi pohidnih efektivna pri znahodzhenni lokalnih optimumiv dlya gladkih nerozrivnih funkcij Odnak u nih mozhut viniknuti problemi napriklad koli mnozhina A displaystyle A ye nezv yaznoyu abo funkciya nabuvaye lishe cilih znachen abo koli funkciya f displaystyle f trudomistka dlya ocinki abo ye negladkoyu tak sho pohidna yiyi chislovi nablizhennya ne nadaye korisnoyi informaciyi Insha problema koli funkciya f displaystyle f ye multimodalnoyu i v comu vipadku metodi na osnovi lokalnih pohidnih dayut lishe lokalnij optimum ta mozhut upustiti globalnij U metodah pryamogo poshuku zastosovuyutsya rizni sposobi dlya rozv yazannya cih problem vikoristovuyuchi lishe znachennya funkciyi f displaystyle f bez pohidnih Mozhna dovesti sho deyaki z cih sposobiv viyavlyayut optimumi a deyaki ye skorishe metaevristichnimi oskilki yak pravilo problemi skladnishe rozv yazuvati u porivnyanni z opukloyu optimizaciyeyu Dlya nih meta polyagaye v tomu shob efektivno znajti dobri znachennya parametriv yaki mozhut buti majzhe optimalnimi za nayavnosti dostatnoyi kilkosti resursiv ale garantiyi optimalnosti zazvichaj ne mozhut buti nadani Slid mati na uvazi sho zadachi riznomanitni tomu zazvichaj ne mozhna vikoristovuvati odin algoritm dlya virishennya vsih vidiv zadach AlgoritmiDo vidomih algoritmiv pryamogo poshuku nalezhat Bajyesivska optimizaciya Koordinatnij spusk i en Algoritm zozuli en Strategiyi evolyuciyi strategiyi prirodnoyi evolyuciyi CMA ES xNES SNES Genetichnij algoritm Algoritm MCS Metod Neldera Mida Metod royu chastok Metod Guka Dzhivsa Vipadkovij poshuk vklyuchno z en Algoritm imitaciyi vidpalu Subgradiyentnij metodDiv takozhMatematichna optimizaciyaPrimitkiConn A R Vicente L N 2009 MPS SIAM Book Series on Optimization Philadelphia SIAM Arhiv originalu za 28 chervnya 2022 Procitovano 18 sichnya 2014 PosilannyaAudet Charles Kokkolaras Michael 2016 Blackbox and derivative free optimization theory algorithms and applications Optimization and Engineering 17 1 2 doi 10 1007 s11081 016 9307 4