У теорії ймовірностей та статистиці термін ма́рковська власти́вість (англ. Markov property) відноситься до властивості [en] в стохастичного процесу. Його названо на честь російського математика Андрія Маркова.
Стохастичний процес має марковську властивість, якщо умовний розподіл імовірності майбутніх станів цього процесу (обумовлених як минулими, так і поточними станами) залежить лише від поточного стану, а не від послідовності подій, яка передувала йому. Процес із такою властивістю називається марковським процесом (англ. Markov process). Термін си́льна ма́рковська власти́вість (англ. strong Markov property) подібний до марковської властивості, за винятком того, що розуміння «поточного» визначається в термінах випадкової величини, відомої як момент зупину. Обидва терміни «марковська властивість» та «сильна марковська властивість» застосовувалися у зв'язку з особливою властивістю «відсутності пам'яті» експоненційного розподілу.
Термін ма́рковське припу́щення (англ. Markov assumption) використовується для опису моделі, в якій передбачається дотримання марковської властивості, наприклад, прихованої марковської моделі.
Марковське випадкове поле (англ. Markov random field) розширює цю властивість на два або більше вимірів, або на випадкові величини, визначені для мережі взаємозв'язаних елементів. Прикладом моделі такого поля є модель Ізінга.
Стохастичний процес [en], який задовольняє марковську властивість, відомий як марковський ланцюг.
Введення
Стохастичний процес має марковську властивість, якщо умовний розподіл імовірності майбутніх станів цього процесу (обумовлених як минулими, так і поточними станами) залежить лише від поточного стану; тобто, з огляду на теперішнє, майбутнє не залежить від минулого. Процес із цією властивістю називають марковіа́ном (англ. Markovian), або ма́рковським проце́сом (англ. Markov process). Найвідомішим марковським процесом є марковський ланцюг. Також добре відомим марковським процесом є броунівський рух.
Історія
Визначення
Нехай є ймовірнісним простором з фільтрацією для деякої (лінійно впорядкованої) індексної множини , і нехай є вимірним простором. Про -значний стохастичний процес , пристосований до цієї фільтрації, кажуть, що він володіє марковською властивістю, якщо для будь-якої та будь-яких з
В разі, коли є дискретною множиною з дискретною сигма-алгеброю, а , це може бути переформульовано наступним чином:
- .
Альтернативні формулювання
Марковська властивість може мати наступне альтернативне формулювання.
для всіх та обмежених і вимірних .
Сильна марковська властивість
Припустімо, що є стохастичним процесом на ймовірнісному просторі з природною фільтрацією . Для будь-якого ми можемо визначити паросткову сигма-алгебру як перетин усіх для . Тоді для будь-якого моменту зупину на ми можемо визначити
- .
Тоді про кажуть, що він має сильну марковську властивість, якщо для кожного моменту зупину , обумовленого подією , ми маємо, що для кожного , є незалежним від за заданого .
Сильна марковська властивість передбачає звичайну марковську властивість, оскільки сильну марковську властивість може бути зведено до неї взяттям моменту зупину .
Приклади
Припустімо, що урна містить дві червоні кулі й одну зелену. Одну кулю витягли вчора, одну кулю витягли сьогодні, й останню кулю витягнуть завтра. Всі витягування є «без повернення».
Припустімо, що вам відомо, що сьогоднішня куля була червоною, але ви не маєте інформації про вчорашню кулю. Шанс того, що завтрашня куля буде червоною, складає 1/2. Це тому, що для цього випадкового експерименту лишилося лише два результати:
День | Результат 1 | Результат 2 |
---|---|---|
Вчора | Червона | Зелена |
Сьогодні | Червона | Червона |
Завтра | Зелена | Червона |
З іншого боку, якщо ви знаєте, що як сьогоднішня, так і вчорашня кулі були червоними, тоді вам гарантовано отримати завтра зелену кулю.
Ця невідповідність показує, що розподіл імовірності завтрашнього кольору залежить не лише від поточного значення, але знаходиться також і під впливом інформації про минуле. Цей стохастичний процес спостережуваних кольорів не має марковської властивості. При використанні такого ж експерименту, як наведено вище, якщо «вибірку без повернення» замінено «вибіркою з поверненням», процес спостережуваних кольорів марковську властивість матиме.
Застосуванням марковської властивості в узагальненому вигляді є обчислення Монте-Карло марковських ланцюгів у контексті баєсової статистики.
Див. також
Джерела
- Карташов М. В. Імовірність, процеси, статистика. — Київ : ВПЦ Київський університет, 2007. — 504 с.
- Гнеденко Б. В. Курс теории вероятностей. — 6-е изд. — Москва : Наука, 1988. — 446 с.(рос.)
- Гихман И. И., Скороход А. В., Ядренко М. В. Теория вероятностей и математическая статистика. — Київ : Вища школа, 1988. — 436 с.(рос.)
- Гихман И. И., Скороход А. В. Введение в теорию случайных процессов. — 2-е. — Москва : Наука, 1977. — 567 с.(рос.)
Примітки
- Марков, А. А. (1954). Теория алгорифмов. Тр. МИАН СССР. М.–Л.: Изд-во АН СССР. 42: 3—375. (рос.)
- Feller, W. (1971) Introduction to Probability Theory and Its Applications, Vol II (2nd edition),Wiley. (pages 9 and 20) (англ.)
- Dodge, Y. (2003) The Oxford Dictionary of Statistical Terms OUP. (англ.)
- Durrett, Rick. Probability: Theory and Examples. Fourth Edition. Cambridge: Cambridge University Press, 2010. (англ.)
- Øksendal, Bernt K. (2003). Stochastic Differential Equations: An Introduction with Applications. Springer, Berlin. ISBN . (англ.)
- . Mathematics Stack Exchange. Архів оригіналу за 16 вересня 2016. Процитовано 10 вересня 2016. (англ.)
Вікіпедія, Українська, Україна, книга, книги, бібліотека, стаття, читати, завантажити, безкоштовно, безкоштовно завантажити, mp3, відео, mp4, 3gp, jpg, jpeg, gif, png, малюнок, музика, пісня, фільм, книга, гра, ігри, мобільний, телефон, android, ios, apple, мобільний телефон, samsung, iphone, xiomi, xiaomi, redmi, honor, oppo, nokia, sonya, mi, ПК, web, Інтернет
U teoriyi jmovirnostej ta statistici termin ma rkovska vlasti vist angl Markov property vidnositsya do vlastivosti en v stohastichnogo procesu Jogo nazvano na chest rosijskogo matematika Andriya Markova Odinochna realizaciya trivimirnogo brounivskogo ruhu dlya chasu 0 t 2 Brounivskij ruh maye markovsku vlastivist oskilki zmishennya chastinki ne zalezhit vid yiyi poperednih zmishen Stohastichnij proces maye markovsku vlastivist yaksho umovnij rozpodil imovirnosti majbutnih staniv cogo procesu obumovlenih yak minulimi tak i potochnimi stanami zalezhit lishe vid potochnogo stanu a ne vid poslidovnosti podij yaka pereduvala jomu Proces iz takoyu vlastivistyu nazivayetsya markovskim procesom angl Markov process Termin si lna ma rkovska vlasti vist angl strong Markov property podibnij do markovskoyi vlastivosti za vinyatkom togo sho rozuminnya potochnogo viznachayetsya v terminah vipadkovoyi velichini vidomoyi yak moment zupinu Obidva termini markovska vlastivist ta silna markovska vlastivist zastosovuvalisya u zv yazku z osoblivoyu vlastivistyu vidsutnosti pam yati eksponencijnogo rozpodilu Termin ma rkovske pripu shennya angl Markov assumption vikoristovuyetsya dlya opisu modeli v yakij peredbachayetsya dotrimannya markovskoyi vlastivosti napriklad prihovanoyi markovskoyi modeli Markovske vipadkove pole angl Markov random field rozshiryuye cyu vlastivist na dva abo bilshe vimiriv abo na vipadkovi velichini viznacheni dlya merezhi vzayemozv yazanih elementiv Prikladom modeli takogo polya ye model Izinga Stohastichnij proces en yakij zadovolnyaye markovsku vlastivist vidomij yak markovskij lancyug VvedennyaStohastichnij proces maye markovsku vlastivist yaksho umovnij rozpodil imovirnosti majbutnih staniv cogo procesu obumovlenih yak minulimi tak i potochnimi stanami zalezhit lishe vid potochnogo stanu tobto z oglyadu na teperishnye majbutnye ne zalezhit vid minulogo Proces iz ciyeyu vlastivistyu nazivayut markovia nom angl Markovian abo ma rkovskim proce som angl Markov process Najvidomishim markovskim procesom ye markovskij lancyug Takozh dobre vidomim markovskim procesom ye brounivskij ruh IstoriyaDokladnishe Lancyugi Markova IstoriyaViznachennyaNehaj W F P displaystyle Omega mathcal F mathbb P ye jmovirnisnim prostorom z filtraciyeyu Fs s I displaystyle mathcal F s s in I dlya deyakoyi linijno vporyadkovanoyi indeksnoyi mnozhini I displaystyle I i nehaj S S displaystyle S mathcal S ye vimirnim prostorom Pro S S displaystyle S mathcal S znachnij stohastichnij proces X Xt t I displaystyle X X t t in I pristosovanij do ciyeyi filtraciyi kazhut sho vin volodiye markovskoyu vlastivistyu yaksho dlya bud yakoyi A S displaystyle A in mathcal S ta bud yakih s t I displaystyle s t in I z s lt t displaystyle s lt t P Xt A Fs P Xt A Xs displaystyle mathbb P X t in A mathcal F s mathbb P X t in A X s V razi koli S displaystyle S ye diskretnoyu mnozhinoyu z diskretnoyu sigma algebroyu a I N displaystyle I mathbb N ce mozhe buti pereformulovano nastupnim chinom P Xn xn Xn 1 xn 1 X0 x0 P Xn xn Xn 1 xn 1 displaystyle mathbb P X n x n X n 1 x n 1 dots X 0 x 0 mathbb P X n x n X n 1 x n 1 Alternativni formulyuvannyaMarkovska vlastivist mozhe mati nastupne alternativne formulyuvannya E f Xt Fs E f Xt s Xs displaystyle mathbb E f X t mathcal F s mathbb E f X t sigma X s dlya vsih t s 0 displaystyle t geq s geq 0 ta obmezhenih i vimirnih f S R displaystyle f S rightarrow mathbb R Silna markovska vlastivistPripustimo sho X Xt t 0 displaystyle X X t t geq 0 ye stohastichnim procesom na jmovirnisnomu prostori W F P displaystyle Omega mathcal F mathbb P z prirodnoyu filtraciyeyu Ft t 0 displaystyle mathcal F t t geq 0 Dlya bud yakogo t 0 displaystyle t geq 0 mi mozhemo viznachiti parostkovu sigma algebru Ft displaystyle mathcal F t yak peretin usih Fs displaystyle mathcal F s dlya s gt t displaystyle s gt t Todi dlya bud yakogo momentu zupinu t displaystyle tau na W displaystyle Omega mi mozhemo viznachiti Ft A F t t A Ft t 0 displaystyle mathcal F tau A in mathcal F tau t cap A in mathcal F t forall t geq 0 Todi pro X displaystyle X kazhut sho vin maye silnu markovsku vlastivist yaksho dlya kozhnogo momentu zupinu t displaystyle tau obumovlenogo podiyeyu t lt displaystyle tau lt infty mi mayemo sho dlya kozhnogo t 0 displaystyle t geq 0 Xt t displaystyle X tau t ye nezalezhnim vid Ft displaystyle mathcal F tau za zadanogo Xt displaystyle X tau Silna markovska vlastivist peredbachaye zvichajnu markovsku vlastivist oskilki silnu markovsku vlastivist mozhe buti zvedeno do neyi vzyattyam momentu zupinu t t displaystyle tau t PrikladiPripustimo sho urna mistit dvi chervoni kuli j odnu zelenu Odnu kulyu vityagli vchora odnu kulyu vityagli sogodni j ostannyu kulyu vityagnut zavtra Vsi vityaguvannya ye bez povernennya Pripustimo sho vam vidomo sho sogodnishnya kulya bula chervonoyu ale vi ne mayete informaciyi pro vchorashnyu kulyu Shans togo sho zavtrashnya kulya bude chervonoyu skladaye 1 2 Ce tomu sho dlya cogo vipadkovogo eksperimentu lishilosya lishe dva rezultati Den Rezultat 1 Rezultat 2Vchora Chervona ZelenaSogodni Chervona ChervonaZavtra Zelena Chervona Z inshogo boku yaksho vi znayete sho yak sogodnishnya tak i vchorashnya kuli buli chervonimi todi vam garantovano otrimati zavtra zelenu kulyu Cya nevidpovidnist pokazuye sho rozpodil imovirnosti zavtrashnogo koloru zalezhit ne lishe vid potochnogo znachennya ale znahoditsya takozh i pid vplivom informaciyi pro minule Cej stohastichnij proces sposterezhuvanih koloriv ne maye markovskoyi vlastivosti Pri vikoristanni takogo zh eksperimentu yak navedeno vishe yaksho vibirku bez povernennya zamineno vibirkoyu z povernennyam proces sposterezhuvanih koloriv markovsku vlastivist matime Zastosuvannyam markovskoyi vlastivosti v uzagalnenomu viglyadi ye obchislennya Monte Karlo markovskih lancyugiv u konteksti bayesovoyi statistiki Div takozhMarkovskij lancyug Markovske pokrittya Markovskij proces virishuvannya en Markovska model Rivnyannya Chepmena KolmogorovaDzherelaKartashov M V Imovirnist procesi statistika Kiyiv VPC Kiyivskij universitet 2007 504 s Gnedenko B V Kurs teorii veroyatnostej 6 e izd Moskva Nauka 1988 446 s ros Gihman I I Skorohod A V Yadrenko M V Teoriya veroyatnostej i matematicheskaya statistika Kiyiv Visha shkola 1988 436 s ros Gihman I I Skorohod A V Vvedenie v teoriyu sluchajnyh processov 2 e Moskva Nauka 1977 567 s ros PrimitkiMarkov A A 1954 Teoriya algorifmov Tr MIAN SSSR M L Izd vo AN SSSR 42 3 375 ros Feller W 1971 Introduction to Probability Theory and Its Applications Vol II 2nd edition Wiley ISBN 0 471 25709 5 pages 9 and 20 angl Dodge Y 2003 The Oxford Dictionary of Statistical Terms OUP ISBN 0 19 850994 4 angl Durrett Rick Probability Theory and Examples Fourth Edition Cambridge Cambridge University Press 2010 angl Oksendal Bernt K 2003 Stochastic Differential Equations An Introduction with Applications Springer Berlin ISBN 3 540 04758 1 angl Mathematics Stack Exchange Arhiv originalu za 16 veresnya 2016 Procitovano 10 veresnya 2016 angl