У статистиці та статистичній фізиці алгоритм Метрополіса – Гастінгса - це метод Монте-Карло Марковських ланцюгів (англ. MCMC) для отримання послідовності випадкових вибірок із таких розподілів, де звичайний прямий вибір є ускладненим. Цю послідовність можна використовувати для вгадування розподілу данних (наприклад, за допомогою гістограми ) або для (наприклад, математичного сподівання). Метрополіс — Гастінгс та інші алгоритми МСМС, як правило, використовуються для вибірки із багатовимірних розподілів, особливо із великою кількістю розмірностей. Для одновимірних розподілів, як правило, використовуються інші методи (наприклад, ), які можуть безпосередньо генерувати незалежні вибірки з розподілу, і ці вибірки не автокорельовані, що є проблемою методів MCMC.
Історія
Алгоритм був названий на честь Ніколаса Метрополіса, який разом із , , та Едвардом Теллером написав у 1953 році статтю «Рівняння обчислень стану за допомогою швидких обчислювальних машин».
Існує певна суперечка щодо авторства алгоритму. Метрополіс, який був знайомий з обчислювальними можливостями методу, ввів термін «Монте-Карло» у спільній із Станіславом Уламом статті. Він очолив групу у Теоретичному відділі, яка спроектувала та побудувала комп'ютер MANIAC I, який використовувався для експериментів в 1952 році. Однак, аж до 2003 року остаточної інформації про розробку алгоритму не було. Потім, незадовго до смерті, відвідав конференцію 2003 року в ЛАНЛ з нагоди 50-ї річниці публікації 1953 року. На цій конференції Розенблут описав алгоритм та його розробку у презентації під назвою «Генезіс алгоритму Монте-Карло для статистичної механіки». Подальші історичні роз'яснення робить Губернатіс у журнальній статті 2005 р. Розенблут чітко дає зрозуміти, що він та його дружина Аріанна виконали цю роботу, і що Метрополіс не зіграв жодної ролі у розробці, крім надання комп'ютерного часу.
Алгоритм Метрополіса — Гастінгса може генерувати вибірки з будь-якого розподілу ймовірностей , за умови, що ми знаємо функцію , пропорційну густині , тому значення можна розрахувати. Вимога, аби була пропорційна густині , а не точно їй рівна, робить алгоритм Метрополіса — Гастінгса особливо корисним, оскільки обчислення необхідного коефіцієнта нормалізації на практиці є часто надзвичайно складною задачею.
Алгоритм Метрополіса — Гастінгса працює шляхом генерації послідовності значень вибірки таким чином, що чим більше значень згенеровано, тим більше розподіл цих значень наближається до невідомого розподілу . Ці значення вибірки генеруються ітеративно, причому розподіл наступної вибірки залежить лише від розподілу попередньої вібірки (таким чином, послідовність вибірки складається в ланцюжок Маркова). Потім, з певною ймовірністю, кандидат або приймається (у цьому випадку значення кандидата використовується в наступній ітерації), або відхиляється (у цьому випадку значення кандидата відкидається, а поточне значення використовується повторно в наступній ітерації) — ймовірність прийняття визначається порівнянням значень функції поточного та кандидатського значення вибірки щодо бажаного розподілу .
З метою ілюстрації, описаний алгоритм Метрополіса, є особливим випадком алгоритму Метрополіс – Гастінгс, де допоміжний розподіл є симетричним.
Метрополісів алгоритм (симетричний допоміжний розподіл)
Нехай є функцією, пропорційною бажаному розподілу ймовірностей (він же цільовий розподіл).
- Ініціалізація: Виберіть довільну точку яка буде першим значенням у вибірці, та оберіть довільну густину ймовірності (іноді позначається як ), що буде пропонувати кандидата наступного значення у вибірці , на підставі попереднього значення вибірки — . Розподіл тут вважається симетричним; іншими словами, повинно задовольняти . Зазвичай, має нормальний гауссовий розподіл центрований у точці , тому точки ближчі до обираються частіше, перетворюючи послідовність зразків на випадкове блукання . Функція позначається як густина пропозиції або розподіл стрибків.
- Для кожної ітерації t :
- Згенеруйте наступне значення з розподілу .
- Обчисліть коефіцієнт прийняття , який буде використаний для прийняття чи відхилення кандидата. Оскільки f пропорційна густині P, маємо: .
- Прийняти або відхилити :
- Згенеруйте випадкове число із рівномірного розподілу .
- Якщо , приймаємо кандидата з розподілу , встановивши ,
- Якщо , відхиліть кандидата і встановіть (раніше обране перше значення у вибірці) натомість.
Цей алгоритм виконується шляхом рандомного переміщення по простору, іноді роблячи крок, а іноді залишаючись на місці. Зверніть увагу, що коефіцієнт прийняття вказує, наскільки імовірна нова запропонована вибірка, враховуючи поточну вибірку, відповідно до розподілу . Якщо ми робимо крок до точки, яка є більш вірогідною, ніж точка, у якій ми знаходимося зараз (тобто точка в області більшої густини що відповідає ), ми робимо крок. Однак, якщо ми намагаємось перейти до менш вірогідної точки, вірогідніше, ми залишаємося на місці, і чим менше значення густини ймовірності, тим більша ймовірність відхилити нову точку і залишитися на місці. Таким чином, ми будемо прагнути залишатися в області високих значень густини , приймаючи велику кількість зразків із цієї області, при цьому лише зрідка відвідуючи регіони із низькими значеннями густини. Інтуїтивно, саме тому цей алгоритм працює і повертає вибірки, які мають цільовий розподіл .
Порівняно з таким алгоритмом як , який безпосередньо генерує незалежні вибірки з розподілу, Метрополіс – Гастінгс та інші алгоритми MCMC мають ряд недоліків:
- Зразки корельовані. Хоча в довгостроковій перспективі вони мають густину , вибірки у наборі будуть корельований між собою, і набір не буде коректно відображати розподіл. Це означає, що якщо ми хочемо зразок із незалежними вибірками, нам доведеться викинути більшість вибірок і взяти лише кожну n-ту вибірку обраного значення n (як правило, обирається на закладі автокореляції між сусідніми зразками). Автокореляцію можна зменшити, збільшивши ширину стрибка (середній розмір стрибка, пов'язаний із дисперсією їх розподілу), але такий метод збільшить ймовірність відхилення запропонованого стрибка. Занадто великий або занадто малий розмір стрибків призведе до повільно-змішанного ланцюга Маркова, тобто, до сильно корельованого набору вибірок. Тому, аби отримати обґрунтоване значення параметру розподілу, потрібна дуже велика кількість вибірок.
- Хоча ланцюг Маркова з часом конвергує до бажаного розподілу, початкові вибірки можуть мати зовсім інший розподіл, особливо якщо початкова точка знаходиться в області із низьким значенням густини імовірності. В результаті, необхідний період прогорання коли початкова кількість вибірок (наприклад, перші 1000 або близько того) викидаються.
З іншого боку, більшість простих методів відторгнення страждають від «проблеми розмірності», де ймовірність відхилення зростає в геометричній прогресії в залежності від кількості вимірів. Метрополіс — Гастінгс, поряд з іншими методами MCMC, так сильно не страждає від цієї проблеми, тому часто є єдиним доступним рішенням, коли вимірів розподілу, із якого генерується вибірка, багато. Як результат, методи MCMC часто використовуються для генерування вибірок з ієрархічних байєсівських моделей та інших високовимірних статистичних моделей, що використовуються сьогодні в багатьох дисциплінах.
У багатовимірних розподілах класичний алгоритм Метрополіса — Гастінгса, як описано вище, передбачає вибір нового багатовимірного значення вибірки. Коли розмірність велика, знайти відповідний розподіл стрибків може бути не легко, оскільки окремо узяті виміри поводяться дуже по-різному, а ширина стрибка (див. вище) повинна підходити для усіх вимірів одночасно, щоб уникайте надмірно повільного перемішування. Альтернативний підхід, який часто працює краще в таких ситуаціях, відомий як , передбачає генерування нової вибірки для кожного виміру окремо, а не для всіх вимірів одночасно. Метод часто використовується, коли багатовимірний розподіл складається з набору окремих випадкових величин, в яких кожна змінна зумовлена лише невеликою кількістю інших змінних, як, наприклад, у більшості типових ієрархічних моделях. Потім окремі змінні обираються по черзі, причому кожна змінна обирається на закладі найсвіжіших значень усіх інших. Для вибору цих окремих вирірок можуть бути використані різні алгоритми, в залежності від форми багатовимірного розподілу: наприклад, — , алгоритм вибірки з відхиленням Метрополіса, простий одновимірний Метрополіс — Гастінгув крок, або .
Формальне виведення
Метою алгоритму Метрополіс – Гастінгс є створення колекції станів відповідно до бажаного розподілу . Для цього алгоритм використовує ланцюги Маркова, які асимптотично досягають унікального стаціонарного розподілу такого, що .
Процес Маркова однозначно визначається його перехідними ймовірностями , ймовірність переходу з будь-якого даного стану до будь-якої іншої стану . Він має унікальний стаціонарний розподіл коли виконуються наступні дві умови:
- Існування стаціонарного розподілу : повинен існувати стаціонарний розподіл . Достатньою, але не необхідною умовою є детальний баланс, який вимагає аби кожен перехід був оборотним: для кожної пари станів , ймовірність перебування в стані і перехід до стану повинен дорівнювати ймовірності перебування в стані і переходу до стану , .
- Унікальність стаціонарного розподілу : стаціонарний розподіл має бути унікальним. Це гарантується ергодичністю процесу Маркова, який вимагає, щоб кожен стан (1) був аперіодичним - система не повертається до того ж стану на визначених проміжках; і (2) був позитивно рекурентним - очікувана кількість кроків для повернення до того самого стану є кінцевою.
Алгоритм Метрополіс — Гастінгс передбачає розробку процесу Маркова (шляхом побудови ймовірностей переходу), який відповідає двом вищезазначеним умовам, таким чином, що його стаціонарний розподіл є . Виведення алгоритму починається з умови детального балансу:
який переписується як
Підхід полягає у розділенні переходу на два підкроки; пропозиція та прийняття-відхилення. Розподіл пропозиції - це умовна ймовірність пропозиції стану за умови стану . Розподіл прийняття це ймовірність прийняти запропонованого стану . Імовірність переходу можна записати як добуток:
Вставивши це відношення в попереднє рівняння, маємо
Наступним кроком є вибір коефіцієнта прийняття який відповідає наведеній вище умові. Одним із поширених варіантів є вибір Метрополіса:
Для цього коефіцієнта прийняття Метрополіса , це або або і, в обох випадках, умова виконана.
Таким чином, алгоритм Метрополіс – Гастінгс полягає у наступному:
- Ініціалізація
- Виберіть початковий стан .
- Встановіть .
- Ітерація
- Згенеруйте випадковий стан відповідно до .
- Обчисліть ймовірність прийняття .
- Прийняти або відхилити :
- генерувати випадкове число із рівномірного розподілу ;
- якщо , прийміть новий стан і встановіть ;
- якщо , відхиліть новий стан , натомість оберіть старий стан .
- Приріст: збільшіть на одиничку .
За умови виконання заданих умов здійснюється емпіричний розподіл збережених станів наближуватиметься розподілу . Кількість ітерацій ( ), яка необхідна для ефективної оцінки залежить від кількості факторів, включаючи взаємозв'язок між і допоміжним розподілом, та бажаною точністю оцінки. Для дискретних розподілів стану, вони повинні бути впорядкованою автокореляцією процесу Маркова.
Важливо зауважити, що в загальному невідомо, який розподіл слід використовувати або скільки необхідно ітерацій для правильної оцінки; це вільні параметри методу, які повинні обиратися відповідно до конкретної проблеми.
де
Ланцюг Маркова починається з довільного початкового значення , і алгоритм виконує багато ітерацій (приблизно 1000), поки цей початковий стан не буде «забутий». Ці значення відкидаються як прогорівші.Ті значення , що залишились, представляють сабою вирірку з розподілу .
Покрокова інструкція
Припустимо, що останнє значення вибірки — . За алгоритмом Метрополіса — Гастінгса, ми далі обираємо новий допоміжний стан з густиною імовірності і обчислюємо значення
- це ймовірне (наприклад, байєсівське апостеріорне) співвідношення між запропонованою вибіркою і попередньою , а
- це відношення допоміжної густини у двох напрямках (від до , і навпаки). Воно дорівнює 1, якщо допоміжна густина симетрична. Потім новий стан обирається згідно з наступними правилами.
- Якщо
- ще:
Алгоритм працює краще, якщо допоміжна густина відповідає формі цільового розподілу , з якого безпосереднє просте пряме семплування є майже неможливим, тобто . Якщо використовується допоміжна густина Гауса , параметр дисперсії повинен бути налаштований під час прогорання. Зазвичай це робиться шляхом обчислення коефіцієнта приймання, який є часткою пропонованих значень, які приймаються серед останніх значень. Бажаний коефіцієнт прийняття залежить від цільового розподілу, проте теоретично було показано, що ідеальний коефіцієнт прийняття для одновимірного гауссового розподілу становить близько 50%, зменшуючись до приблизно 23% для -вимірного цільового Гаусовського розподілу.
Якщо занадто мала, ланцюг буде повільно змішуватися (тобто коефіцієнт прийняття буде високим, але обрані значення будуть повільно рухатися по простору, і ланцюг буде лише повільно конвергувати до ). З іншого боку, якщо занадто велика, коефіцієнт прийняття буде дуже низьким, оскільки значення, ймовірно, будуть обиратися із регіонів із набагато меншою густиною ймовірності, тому буде дуже маленьким, і знову ланцюг буде сходитися дуже повільно. Зазвичай налаштовують розподіл пропозицій таким чином, щоб алгоритми приймали близько 30 % усіх вибірок — відповідно до теоретичних оцінок, згаданих у попередньому параграфі.
Дивитися також
Список літератури
- Hastings, W.K. (1970). Monte Carlo Sampling Methods Using Markov Chains and Their Applications. . 57 (1): 97—109. Bibcode:1970Bimka..57...97H. doi:10.1093/biomet/57.1.97. JSTOR 2334940. Zbl 0219.65008.
- M.N. Rosenbluth (2003). Genesis of the Monte Carlo Algorithm for Statistical Mechanics. . 690: 22—30. doi:10.1063/1.1632112.
- J.E. Gubernatis (2005). . . 12 (5): 057303. Bibcode:2005PhPl...12e7303G. doi:10.1063/1.1887186. Архів оригіналу за 9 липня 2021. Процитовано 26 червня 2021.
- Gilks, W. R.; Wild, P. (1 січня 1992). Adaptive Rejection Sampling for Gibbs Sampling. Journal of the Royal Statistical Society. Series C (Applied Statistics). 41 (2): 337—348. doi:10.2307/2347565. JSTOR 2347565.
- Bayesian data analysis (вид. 2nd). Boca Raton, Fla.: Chapman & Hall / CRC. 2004. ISBN . OCLC 51991499.
- Gilks, W. R.; ; Tan, K. K. C. (1 січня 1995). Adaptive Rejection Metropolis Sampling within Gibbs Sampling. Journal of the Royal Statistical Society. Series C (Applied Statistics). 44 (4): 455—472. doi:10.2307/2986138. JSTOR 2986138.
- Robert, Christian; Casella, George (2004). Monte Carlo Statistical Methods. Springer. ISBN .
- Raftery, Adrian E., and Steven Lewis.
- Newman, M. E. J.; Barkema, G. T. (1999). Monte Carlo Methods in Statistical Physics. USA: Oxford University Press. ISBN .
- Roberts, G.O.; Gelman, A.; Gilks, W.R. (1997). . 7 (1): 110—120. CiteSeerX 10.1.1.717.2582. doi:10.1214/aoap/1034625254. Архів оригіналу за 28 вересня 2021. Процитовано 26 червня 2021.
- In the original paper however, was actually the , as it was applied to physical systems in the context of
Вікіпедія, Українська, Україна, книга, книги, бібліотека, стаття, читати, завантажити, безкоштовно, безкоштовно завантажити, mp3, відео, mp4, 3gp, jpg, jpeg, gif, png, малюнок, музика, пісня, фільм, книга, гра, ігри, мобільний, телефон, android, ios, apple, мобільний телефон, samsung, iphone, xiomi, xiaomi, redmi, honor, oppo, nokia, sonya, mi, ПК, web, Інтернет
U statistici ta statistichnij fizici algoritm Metropolisa Gastingsa ce metod Monte Karlo Markovskih lancyugiv angl MCMC dlya otrimannya poslidovnosti vipadkovih vibirok iz takih rozpodiliv de zvichajnij pryamij vibir ye uskladnenim Cyu poslidovnist mozhna vikoristovuvati dlya vgaduvannya rozpodilu dannih napriklad za dopomogoyu gistogrami abo dlya napriklad matematichnogo spodivannya Metropolis Gastings ta inshi algoritmi MSMS yak pravilo vikoristovuyutsya dlya vibirki iz bagatovimirnih rozpodiliv osoblivo iz velikoyu kilkistyu rozmirnostej Dlya odnovimirnih rozpodiliv yak pravilo vikoristovuyutsya inshi metodi napriklad yaki mozhut bezposeredno generuvati nezalezhni vibirki z rozpodilu i ci vibirki ne avtokorelovani sho ye problemoyu metodiv MCMC Dopomizhnij rozpodil Q proponuye nastupnu tochku u yaku mozhno perejti za dopomogoyu vipadkovogo blukannya IstoriyaAlgoritm buv nazvanij na chest Nikolasa Metropolisa yakij razom iz ta Edvardom Tellerom napisav u 1953 roci stattyu Rivnyannya obchislen stanu za dopomogoyu shvidkih obchislyuvalnih mashin Isnuye pevna superechka shodo avtorstva algoritmu Metropolis yakij buv znajomij z obchislyuvalnimi mozhlivostyami metodu vviv termin Monte Karlo u spilnij iz Stanislavom Ulamom statti Vin ocholiv grupu u Teoretichnomu viddili yaka sproektuvala ta pobuduvala komp yuter MANIAC I yakij vikoristovuvavsya dlya eksperimentiv v 1952 roci Odnak azh do 2003 roku ostatochnoyi informaciyi pro rozrobku algoritmu ne bulo Potim nezadovgo do smerti vidvidav konferenciyu 2003 roku v LANL z nagodi 50 yi richnici publikaciyi 1953 roku Na cij konferenciyi Rozenblut opisav algoritm ta jogo rozrobku u prezentaciyi pid nazvoyu Genezis algoritmu Monte Karlo dlya statistichnoyi mehaniki Podalshi istorichni roz yasnennya robit Gubernatis u zhurnalnij statti 2005 r Rozenblut chitko daye zrozumiti sho vin ta jogo druzhina Arianna vikonali cyu robotu i sho Metropolis ne zigrav zhodnoyi roli u rozrobci krim nadannya komp yuternogo chasu Algoritm Metropolisa Gastingsa mozhe generuvati vibirki z bud yakogo rozpodilu jmovirnostej P x displaystyle P x za umovi sho mi znayemo funkciyu f x displaystyle f x proporcijnu gustini P displaystyle P tomu znachennya f x displaystyle f x mozhna rozrahuvati Vimoga abi f x displaystyle f x bula proporcijna gustini P displaystyle P a ne tochno yij rivna robit algoritm Metropolisa Gastingsa osoblivo korisnim oskilki obchislennya neobhidnogo koeficiyenta normalizaciyi na praktici ye chasto nadzvichajno skladnoyu zadacheyu Algoritm Metropolisa Gastingsa pracyuye shlyahom generaciyi poslidovnosti znachen vibirki takim chinom sho chim bilshe znachen zgenerovano tim bilshe rozpodil cih znachen nablizhayetsya do nevidomogo rozpodilu P x displaystyle P x Ci znachennya vibirki generuyutsya iterativno prichomu rozpodil nastupnoyi vibirki zalezhit lishe vid rozpodilu poperednoyi vibirki takim chinom poslidovnist vibirki skladayetsya v lancyuzhok Markova Potim z pevnoyu jmovirnistyu kandidat abo prijmayetsya u comu vipadku znachennya kandidata vikoristovuyetsya v nastupnij iteraciyi abo vidhilyayetsya u comu vipadku znachennya kandidata vidkidayetsya a potochne znachennya vikoristovuyetsya povtorno v nastupnij iteraciyi jmovirnist prijnyattya viznachayetsya porivnyannyam znachen funkciyi f x displaystyle f x potochnogo ta kandidatskogo znachennya vibirki shodo bazhanogo rozpodilu P x displaystyle P x Z metoyu ilyustraciyi opisanij algoritm Metropolisa ye osoblivim vipadkom algoritmu Metropolis Gastings de dopomizhnij rozpodil ye simetrichnim Metropolisiv algoritm simetrichnij dopomizhnij rozpodil Nehaj f x displaystyle f x ye funkciyeyu proporcijnoyu bazhanomu rozpodilu jmovirnostej P x displaystyle P x vin zhe cilovij rozpodil Inicializaciya Viberit dovilnu tochku xt displaystyle x t yaka bude pershim znachennyam u vibirci ta oberit dovilnu gustinu jmovirnosti g x y displaystyle g x mid y inodi poznachayetsya yak Q x y displaystyle Q x mid y sho bude proponuvati kandidata nastupnogo znachennya u vibirci x displaystyle x na pidstavi poperednogo znachennya vibirki y displaystyle y Rozpodil g displaystyle g tut vvazhayetsya simetrichnim inshimi slovami g displaystyle g povinno zadovolnyati g x y g y x displaystyle g x mid y g y mid x Zazvichaj g x y displaystyle g x mid y maye normalnij gaussovij rozpodil centrovanij u tochci y displaystyle y tomu tochki blizhchi do y displaystyle y obirayutsya chastishe peretvoryuyuchi poslidovnist zrazkiv na vipadkove blukannya Funkciya g displaystyle g poznachayetsya yak gustina propoziciyi abo rozpodil stribkiv Dlya kozhnoyi iteraciyi t Zgenerujte nastupne znachennya x displaystyle x z rozpodilu g x xt displaystyle g x mid x t Obchislit koeficiyent prijnyattya a f x f xt displaystyle alpha f x f x t yakij bude vikoristanij dlya prijnyattya chi vidhilennya kandidata Oskilki f proporcijna gustini P mayemo a f x f xt P x P xt displaystyle alpha f x f x t P x P x t Prijnyati abo vidhiliti Zgenerujte vipadkove chislo iz rivnomirnogo rozpodilu u 0 1 displaystyle u in 0 1 Yaksho u a displaystyle u leq alpha prijmayemo kandidata z rozpodilu g x xt displaystyle g x mid x t vstanovivshi xt 1 x displaystyle x t 1 x Yaksho u gt a displaystyle u gt alpha vidhilit kandidata i vstanovit xt 1 xt displaystyle x t 1 x t ranishe obrane pershe znachennya u vibirci natomist Cej algoritm vikonuyetsya shlyahom randomnogo peremishennya po prostoru inodi roblyachi krok a inodi zalishayuchis na misci Zvernit uvagu sho koeficiyent prijnyattya a displaystyle alpha vkazuye naskilki imovirna nova zaproponovana vibirka vrahovuyuchi potochnu vibirku vidpovidno do rozpodilu P x displaystyle P x Yaksho mi robimo krok do tochki yaka ye bilsh virogidnoyu nizh tochka u yakij mi znahodimosya zaraz tobto tochka v oblasti bilshoyi gustini P x displaystyle P x sho vidpovidaye a gt 1 u displaystyle alpha gt 1 geq u mi robimo krok Odnak yaksho mi namagayemos perejti do mensh virogidnoyi tochki virogidnishe mi zalishayemosya na misci i chim menshe znachennya gustini jmovirnosti tim bilsha jmovirnist vidhiliti novu tochku i zalishitisya na misci Takim chinom mi budemo pragnuti zalishatisya v oblasti visokih znachen gustini P x displaystyle P x prijmayuchi veliku kilkist zrazkiv iz ciyeyi oblasti pri comu lishe zridka vidviduyuchi regioni iz nizkimi znachennyami gustini Intuyitivno same tomu cej algoritm pracyuye i povertaye vibirki yaki mayut cilovij rozpodil P x displaystyle P x Porivnyano z takim algoritmom yak yakij bezposeredno generuye nezalezhni vibirki z rozpodilu Metropolis Gastings ta inshi algoritmi MCMC mayut ryad nedolikiv Zrazki korelovani Hocha v dovgostrokovij perspektivi voni mayut gustinu P x displaystyle P x vibirki u nabori budut korelovanij mizh soboyu i nabir ne bude korektno vidobrazhati rozpodil Ce oznachaye sho yaksho mi hochemo zrazok iz nezalezhnimi vibirkami nam dovedetsya vikinuti bilshist vibirok i vzyati lishe kozhnu n tu vibirku obranogo znachennya n yak pravilo obirayetsya na zakladi avtokorelyaciyi mizh susidnimi zrazkami Avtokorelyaciyu mozhna zmenshiti zbilshivshi shirinu stribka serednij rozmir stribka pov yazanij iz dispersiyeyu yih rozpodilu ale takij metod zbilshit jmovirnist vidhilennya zaproponovanogo stribka Zanadto velikij abo zanadto malij rozmir stribkiv prizvede do povilno zmishannogo lancyuga Markova tobto do silno korelovanogo naboru vibirok Tomu abi otrimati obgruntovane znachennya parametru rozpodilu potribna duzhe velika kilkist vibirok Hocha lancyug Markova z chasom konverguye do bazhanogo rozpodilu pochatkovi vibirki mozhut mati zovsim inshij rozpodil osoblivo yaksho pochatkova tochka znahoditsya v oblasti iz nizkim znachennyam gustini imovirnosti V rezultati neobhidnij period progorannya koli pochatkova kilkist vibirok napriklad pershi 1000 abo blizko togo vikidayutsya Z inshogo boku bilshist prostih metodiv vidtorgnennya strazhdayut vid problemi rozmirnosti de jmovirnist vidhilennya zrostaye v geometrichnij progresiyi v zalezhnosti vid kilkosti vimiriv Metropolis Gastings poryad z inshimi metodami MCMC tak silno ne strazhdaye vid ciyeyi problemi tomu chasto ye yedinim dostupnim rishennyam koli vimiriv rozpodilu iz yakogo generuyetsya vibirka bagato Yak rezultat metodi MCMC chasto vikoristovuyutsya dlya generuvannya vibirok z iyerarhichnih bajyesivskih modelej ta inshih visokovimirnih statistichnih modelej sho vikoristovuyutsya sogodni v bagatoh disciplinah U bagatovimirnih rozpodilah klasichnij algoritm Metropolisa Gastingsa yak opisano vishe peredbachaye vibir novogo bagatovimirnogo znachennya vibirki Koli rozmirnist velika znajti vidpovidnij rozpodil stribkiv mozhe buti ne legko oskilki okremo uzyati vimiri povodyatsya duzhe po riznomu a shirina stribka div vishe povinna pidhoditi dlya usih vimiriv odnochasno shob unikajte nadmirno povilnogo peremishuvannya Alternativnij pidhid yakij chasto pracyuye krashe v takih situaciyah vidomij yak peredbachaye generuvannya novoyi vibirki dlya kozhnogo vimiru okremo a ne dlya vsih vimiriv odnochasno Metod chasto vikoristovuyetsya koli bagatovimirnij rozpodil skladayetsya z naboru okremih vipadkovih velichin v yakih kozhna zminna zumovlena lishe nevelikoyu kilkistyu inshih zminnih yak napriklad u bilshosti tipovih iyerarhichnih modelyah Potim okremi zminni obirayutsya po cherzi prichomu kozhna zminna obirayetsya na zakladi najsvizhishih znachen usih inshih Dlya viboru cih okremih virirok mozhut buti vikoristani rizni algoritmi v zalezhnosti vid formi bagatovimirnogo rozpodilu napriklad algoritm vibirki z vidhilennyam Metropolisa prostij odnovimirnij Metropolis Gastinguv krok abo Formalne vivedennyaMetoyu algoritmu Metropolis Gastings ye stvorennya kolekciyi staniv vidpovidno do bazhanogo rozpodilu P x displaystyle P x Dlya cogo algoritm vikoristovuye lancyugi Markova yaki asimptotichno dosyagayut unikalnogo stacionarnogo rozpodilu p x displaystyle pi x takogo sho p x P x displaystyle pi x P x Proces Markova odnoznachno viznachayetsya jogo perehidnimi jmovirnostyami P x x displaystyle P x mid x jmovirnist perehodu z bud yakogo danogo stanu x displaystyle x do bud yakoyi inshoyi stanu x displaystyle x Vin maye unikalnij stacionarnij rozpodil p x displaystyle pi x koli vikonuyutsya nastupni dvi umovi Isnuvannya stacionarnogo rozpodilu povinen isnuvati stacionarnij rozpodil p x displaystyle pi x Dostatnoyu ale ne neobhidnoyu umovoyu ye detalnij balans yakij vimagaye abi kozhen perehid x x displaystyle x to x buv oborotnim dlya kozhnoyi pari staniv x x displaystyle x x jmovirnist perebuvannya v stani x displaystyle x i perehid do stanu x displaystyle x povinen dorivnyuvati jmovirnosti perebuvannya v stani x displaystyle x i perehodu do stanu x displaystyle x p x P x x p x P x x displaystyle pi x P x mid x pi x P x mid x Unikalnist stacionarnogo rozpodilu stacionarnij rozpodil p x displaystyle pi x maye buti unikalnim Ce garantuyetsya ergodichnistyu procesu Markova yakij vimagaye shob kozhen stan 1 buv aperiodichnim sistema ne povertayetsya do togo zh stanu na viznachenih promizhkah i 2 buv pozitivno rekurentnim ochikuvana kilkist krokiv dlya povernennya do togo samogo stanu ye kincevoyu Algoritm Metropolis Gastings peredbachaye rozrobku procesu Markova shlyahom pobudovi jmovirnostej perehodu yakij vidpovidaye dvom vishezaznachenim umovam takim chinom sho jogo stacionarnij rozpodil p x displaystyle pi x ye P x displaystyle P x Vivedennya algoritmu pochinayetsya z umovi detalnogo balansu P x x P x P x x P x displaystyle P x mid x P x P x mid x P x yakij perepisuyetsya yak P x x P x x P x P x displaystyle frac P x mid x P x mid x frac P x P x Pidhid polyagaye u rozdilenni perehodu na dva pidkroki propoziciya ta prijnyattya vidhilennya Rozpodil propoziciyi g x x displaystyle g x mid x ce umovna jmovirnist propoziciyi stanu x displaystyle x za umovi stanu x displaystyle x Rozpodil prijnyattya A x x displaystyle A x x ce jmovirnist prijnyati zaproponovanogo stanu x displaystyle x Imovirnist perehodu mozhna zapisati yak dobutok P x x g x x A x x displaystyle P x mid x g x mid x A x x Vstavivshi ce vidnoshennya v poperednye rivnyannya mayemo A x x A x x P x P x g x x g x x displaystyle frac A x x A x x frac P x P x frac g x mid x g x mid x Nastupnim krokom ye vibir koeficiyenta prijnyattya yakij vidpovidaye navedenij vishe umovi Odnim iz poshirenih variantiv ye vibir Metropolisa A x x min 1 P x P x g x x g x x displaystyle A x x min left 1 frac P x P x frac g x mid x g x mid x right Dlya cogo koeficiyenta prijnyattya Metropolisa A displaystyle A ce abo A x x 1 displaystyle A x x 1 abo A x x 1 displaystyle A x x 1 i v oboh vipadkah umova vikonana Takim chinom algoritm Metropolis Gastings polyagaye u nastupnomu Inicializaciya Viberit pochatkovij stan x0 displaystyle x 0 Vstanovit t 0 displaystyle t 0 Iteraciya Zgenerujte vipadkovij stan x displaystyle x vidpovidno do g x xt displaystyle g x mid x t Obchislit jmovirnist prijnyattya A x xt min 1 P x P xt g xt x g x xt displaystyle A x x t min left 1 frac P x P x t frac g x t mid x g x mid x t right Prijnyati abo vidhiliti generuvati vipadkove chislo iz rivnomirnogo rozpodilu u 0 1 displaystyle u in 0 1 yaksho u A x xt displaystyle u leq A x x t prijmit novij stan i vstanovit xt 1 x displaystyle x t 1 x yaksho u gt A x xt displaystyle u gt A x x t vidhilit novij stan x displaystyle x natomist oberit starij stan xt 1 xt displaystyle x t 1 x t Pririst zbilshit na odinichku t t 1 displaystyle t t 1 Za umovi vikonannya zadanih umov zdijsnyuyetsya empirichnij rozpodil zberezhenih staniv x0 xT displaystyle x 0 ldots x T nablizhuvatimetsya rozpodilu P x displaystyle P x Kilkist iteracij T displaystyle T yaka neobhidna dlya efektivnoyi ocinki P x displaystyle P x zalezhit vid kilkosti faktoriv vklyuchayuchi vzayemozv yazok mizh P x displaystyle P x i dopomizhnim rozpodilom ta bazhanoyu tochnistyu ocinki Dlya diskretnih rozpodiliv stanu voni povinni buti vporyadkovanoyu avtokorelyaciyeyu procesu Markova Vazhlivo zauvazhiti sho v zagalnomu nevidomo yakij rozpodil g x x displaystyle g x mid x slid vikoristovuvati abo skilki neobhidno iteracij dlya pravilnoyi ocinki ce vilni parametri metodu yaki povinni obiratisya vidpovidno do konkretnoyi problemi a1 P x P xt displaystyle a 1 frac P x P x t de Lancyug Markova pochinayetsya z dovilnogo pochatkovogo znachennya x0 displaystyle x 0 i algoritm vikonuye bagato iteracij priblizno 1000 poki cej pochatkovij stan ne bude zabutij Ci znachennya vidkidayutsya yak progorivshi Ti znachennya x displaystyle x sho zalishilis predstavlyayut saboyu virirku z rozpodilu P x displaystyle P x Pokrokova instrukciyaPripustimo sho ostannye znachennya vibirki xt displaystyle x t Za algoritmom Metropolisa Gastingsa mi dali obirayemo novij dopomizhnij stan x displaystyle x z gustinoyu imovirnosti g x xt displaystyle g x mid x t i obchislyuyemo znachennya a a1a2 displaystyle a a 1 a 2 a2 g xt x g x xt displaystyle a 2 frac g x t mid x g x mid x t ce jmovirne napriklad bajyesivske aposteriorne spivvidnoshennya mizh zaproponovanoyu vibirkoyu x displaystyle x i poperednoyu xt displaystyle x t a ce vidnoshennya dopomizhnoyi gustini u dvoh napryamkah vid xt displaystyle x t do x displaystyle x i navpaki Vono dorivnyuye 1 yaksho dopomizhna gustina simetrichna Potim novij stan xt 1 displaystyle x t 1 obirayetsya zgidno z nastupnimi pravilami Yaksho a 1 displaystyle a geq 1 xt 1 x displaystyle x t 1 x dd she xt 1 x with probability a xtwith probability 1 a displaystyle x t 1 begin cases x amp text with probability a x t amp text with probability 1 a end cases dd Algoritm pracyuye krashe yaksho dopomizhna gustina vidpovidaye formi cilovogo rozpodilu P x displaystyle P x z yakogo bezposerednye proste pryame sempluvannya ye majzhe nemozhlivim tobto g x xt P x displaystyle g x mid x t approx P x Yaksho vikoristovuyetsya dopomizhna gustina Gausa g displaystyle g parametr dispersiyi s2 displaystyle sigma 2 povinen buti nalashtovanij pid chas progorannya Zazvichaj ce robitsya shlyahom obchislennya koeficiyenta prijmannya yakij ye chastkoyu proponovanih znachen yaki prijmayutsya sered ostannih N displaystyle N znachen Bazhanij koeficiyent prijnyattya zalezhit vid cilovogo rozpodilu prote teoretichno bulo pokazano sho idealnij koeficiyent prijnyattya dlya odnovimirnogo gaussovogo rozpodilu stanovit blizko 50 zmenshuyuchis do priblizno 23 dlya N displaystyle N vimirnogo cilovogo Gausovskogo rozpodilu Yaksho s2 displaystyle sigma 2 zanadto mala lancyug bude povilno zmishuvatisya tobto koeficiyent prijnyattya bude visokim ale obrani znachennya budut povilno ruhatisya po prostoru i lancyug bude lishe povilno konverguvati do P x displaystyle P x Z inshogo boku yaksho s2 displaystyle sigma 2 zanadto velika koeficiyent prijnyattya bude duzhe nizkim oskilki znachennya jmovirno budut obiratisya iz regioniv iz nabagato menshoyu gustinoyu jmovirnosti tomu a1 displaystyle a 1 bude duzhe malenkim i znovu lancyug bude shoditisya duzhe povilno Zazvichaj nalashtovuyut rozpodil propozicij takim chinom shob algoritmi prijmali blizko 30 usih vibirok vidpovidno do teoretichnih ocinok zgadanih u poperednomu paragrafi Rezultat troh lancyuzhkiv Markova na 3D funkciyi Rozenbroka z vikoristannyam algoritmu Metropolisa Gastingsa Algoritm bere vibirki z regioniv de aposteriorna jmovirnist velika i lancyugi pochinayut zmishuvatisya v cih regionah Priblizne polozhennya maksimumu pidsvicheno na malyunku Chervoni tochki ce ti yaki zalishayutsya pislya procesu progorannya Bilsh ranni buli vidkinuti Divitisya takozhDetalnij balans Genetichni algoritmi Imitovanij vidpalSpisok literaturiHastings W K 1970 Monte Carlo Sampling Methods Using Markov Chains and Their Applications 57 1 97 109 Bibcode 1970Bimka 57 97H doi 10 1093 biomet 57 1 97 JSTOR 2334940 Zbl 0219 65008 M N Rosenbluth 2003 Genesis of the Monte Carlo Algorithm for Statistical Mechanics 690 22 30 doi 10 1063 1 1632112 J E Gubernatis 2005 12 5 057303 Bibcode 2005PhPl 12e7303G doi 10 1063 1 1887186 Arhiv originalu za 9 lipnya 2021 Procitovano 26 chervnya 2021 Gilks W R Wild P 1 sichnya 1992 Adaptive Rejection Sampling for Gibbs Sampling Journal of the Royal Statistical Society Series C Applied Statistics 41 2 337 348 doi 10 2307 2347565 JSTOR 2347565 Bayesian data analysis vid 2nd Boca Raton Fla Chapman amp Hall CRC 2004 ISBN 978 1584883883 OCLC 51991499 Gilks W R Tan K K C 1 sichnya 1995 Adaptive Rejection Metropolis Sampling within Gibbs Sampling Journal of the Royal Statistical Society Series C Applied Statistics 44 4 455 472 doi 10 2307 2986138 JSTOR 2986138 Robert Christian Casella George 2004 Monte Carlo Statistical Methods Springer ISBN 978 0387212395 Raftery Adrian E and Steven Lewis Newman M E J Barkema G T 1999 Monte Carlo Methods in Statistical Physics USA Oxford University Press ISBN 978 0198517979 Roberts G O Gelman A Gilks W R 1997 7 1 110 120 CiteSeerX 10 1 1 717 2582 doi 10 1214 aoap 1034625254 Arhiv originalu za 28 veresnya 2021 Procitovano 26 chervnya 2021 In the original paper however g x y displaystyle g x mid y was actually the as it was applied to physical systems in the context of