Ця стаття має кілька недоліків. Будь ласка, допоможіть удосконалити її або обговоріть ці проблеми на .
|
Умо́вні випадко́ві поля́ (УВП, англ. conditional random fields, CRFs) — це клас методів статистичного моделювання, які часто застосовують в розпізнаванні образів та машинному навчанні, й використовують для структурового передбачування. УВП належать до родини моделювання послідовностей. На відміну від дискретного класифікатора, який передбачує мітку для окремого зразка без врахування «сусідніх» зразків, УВП може брати до уваги контекст; наприклад, лінійно-ланцюгове УВП (що є популярним в обробці природної мови) передбачує послідовності міток для послідовностей входових зразків.
УВП є одним з типів розрізнювальних неспрямованих імовірнісних графових моделей. Їх використовують для кодування відомих взаємозв'язків між спостереженнями та побудови узгоджених представлень, і часто використовують для [en] або розбирання послідовних даних, таких як обробка природних мов та біологічні послідовності, та в комп'ютерному баченні. Зокрема, УВП, серед інших задач, знаходять застосування в розмічуванні частин мови, поверхнево-синтаксичному аналізі,розпізнаванні іменованих сутностей,[en] та пошуку пептидних критичних функційних областей, будучи альтернативою спорідненим прихованим марковським моделям (ПММ). У комп'ютерному зорі УВП часто використовують для розпізнавання об'єктів та сегментування зображень.
Опис
[en], [en] та Перейра визначили УВП на спостереженнях та випадкових змінних наступним чином:
Нехай є таким графом, що
, так що індексовано вершинами . Тоді є умовним випадковим полем, коли випадкові змінні , обумовлені , володіють марковською властивістю по відношенню до цього графу: , де означає, що та є сусідами в .
Це означає, що УВП є неспрямованою графовою моделлю, чиї вершини може бути поділено на рівно дві неперетинні множини та , спостережувані та виходові змінні, відповідно; тоді моделюють умовний розподіл .
Висновування
Для графів загального вигляду задача точного висновування в УВП є нерозв'язною. Задача висновування для УВП є по суті такою ж, як і для [en], і мають місце ті самі аргументи. Проте, існують особливі випадки, для яких висновування є здійсненним:
- Якщо граф є ланцюгом або деревом, то точні розв'язки дають алгоритми передавання повідомлень. Алгоритми, що застосовують в цих випадках, є аналогічними до [en] та алгоритму Вітербі для випадку ПММ.
- Якщо УВП містить лише попарні потенціали, й ця енергія є [en], то точні розв'язки дають комбінаторні алгоритми мінімального розрізу/максимального потоку.
Якщо точне висновування є неможливим, то можливо застосовувати декілька алгоритмів для отримування наближених розв'язків. До них належать:
- [en]
- Альфа-розширення (англ. alpha expansion)
- Висновування середнього поля (англ. mean field inference)
- [en]
Навчання параметрів
Навчання параметрів зазвичай виконують навчанням максимальної правдоподібності для . Якщо всі вузли мають розподіли експоненційного сімейства, та є спостережуваними під час тренування, то ця оптимізація є опуклою. Її можливо розв'язувати, наприклад, застосуванням алгоритмів градієнтного спуску, або квазі-ньютоновими методами, такими як алгоритм [en]. З іншого боку, якщо деякі змінні є неспостережуваними, то для цих змінних має бути розв'язано задачу висновування. Для графів загального вигляду точне висновування є непіддатливим, тож мають застосовуватися наближення.
Приклади
У послідовнісному моделюванні, граф, який становить інтерес, зазвичай є ланцюговим. Входова послідовність спостережуваних змінних представляє послідовність спостережень, а представляє приховану (або невідому) змінну стану, висновки про яку потрібно отримувати зі спостережень. структурують так, щоби утворити ланцюг, з ребрами між кожними та . Маючи просте представлення як «міток» для кожного з елементів послідовності входу, це компонування також уможливлює дієві алгоритми для:
- тренування моделі, навчання умовних розподілів між та функціями ознак для деякого корпусу тренувальних даних.
- декодування, визначення ймовірності заданої послідовності міток за заданої .
- висновування, визначення найправдоподібнішої послідовності міток за заданої .
Умовну залежність кожної з від визначають через фіксований набір функцій ознак вигляду , які можливо розглядати як вимірювання на послідовності входу, що частково визначають правдоподібність кожного з можливих значень . Ця модель призначує кожній ознаці числову вагу, й поєднує їх для визначення ймовірності певного значення .
Лінійно-ланцюгові УВП мають багато таких же застосувань, як і концептуально простіші приховані марковські моделі (ПММ), але послаблюють деякі вихідні положення щодо розподілів послідовностей входу та виходу. ПММ можливо грубо розуміти як УВП з дуже особливими функціями ознак, які використовують сталі ймовірності для моделюванні переходів станів та виходів. І навпаки, УВП можливо грубо розуміти як узагальнення ПММ, яке робить сталі ймовірності переходів довільними функціями, що міняться над позиціями в послідовності прихованих станів, залежно від послідовності входу.
Примітно, що, на противагу до ПММ, УВП можуть містити будь-яке число функцій ознак, ці функції ознак можуть оглядати всю послідовність входу в будь-який момент висновування, і спектрові функцій ознак не потрібно мати ймовірнісної інтерпретації.
Варіанти
УВП вищих порядків, та напівмарковські УВП
УВП можливо розширити до моделей вищих порядків, зробивши кожну з залежною від фіксованого числа попередніх змінних . У звичайних формулюваннях УВП вищих порядків тренування та висновування є дієвими лише для маленьких значень (таких як k ≤ 5), оскільки їхня обчислювальна витратність зростає з експоненційно.
Проте, іншому нещодавньому просуванню вдалося поліпшити ці нюанси шляхом задіювання понять та інструментів з області баєсової непараметрії. Конкретніше, УВП-нескінченний (англ. CRF-infinity) підхід становить УВП-модель, здатну навчатися нескінченно тривалої часової динаміки масштабованою манерою. Це здійснюється введенням новітньої функції потенціалу для УВП, яка ґрунтується на «запам'ятовувачі послідовностей» (ЗП, англ. Sequence Memoizer, SM), непараметричній баєсовій моделі для навчання нескінченно тривалих динамік у послідовних спостереженнях. Щоби зробити таку модель обчислювально піддатливою, УВП-нескінченність застосовує наближення середнього поля запостульованих новітніх функцій потенціалу (які веде ЗП). Це дозволяє винаходити дієві алгоритми наближеного тренування та висновування для цієї моделі, не підриваючи її здатності схоплювати та моделювати часові залежності довільної тривалості.
Існує ще одне узагальнення УВП, напівма́рковське умо́вне випадко́ве по́ле (напів-УВП, англ. semi-Markov conditional random field, semi-CRF), яке моделює сегментування довільної довжини послідовності міток . Воно забезпечує майже таку ж потужність для моделювання довготривалих залежностей , як і УВП вищих порядків, за помірних обчислювальних витрат.
Нарешті, як альтернативу процедурі тренування УВП можливо розглядати моделі з широким розділенням (англ. large-margin models) для структурового передбачування, такі як [en].
Латентно-динамічне умовне випадкове поле
Лате́нтно-динамі́чні умо́вні випадко́ві по́ля (ЛДУВП, англ. latent-dynamic conditional random fields, LDCRF), або розрі́знювальні імові́рнісні моде́лі з лате́нтними змі́нними (РІМЛЗ, англ. discriminative probabilistic latent variable models, DPLVM) — це один із типів УВП для задач маркування послідовностей. Вони є [en], що тренують розрізнювально.
В ЛДУВП, як і в будь-якій задачі маркування послідовностей, для заданої послідовності спостережень x = головною задачею, яку ця модель мусить розв'язати, є як призначити послідовність міток y = з однієї скінченної множини міток Y. Замість моделювати P(y|x) безпосередньо, як робило би звичайне лінійно-ланцюгове УВП, між x та y «вставляють» множину латентних змінних h, застосовуючи ланцюгове правило ймовірності:
Це дозволяє схоплювати латентну структуру між спостереженнями та мітками. В той час як ЛДУВП може бути треновано з використанням квазі-ньютонових методів, для них на основі алгоритму структурового перцептрону Коллінза також було розроблено особливу версію алгоритму перцептрону, названу перцептро́ном з лате́нтними змі́нними (англ. latent-variable perceptron). Ці моделі знаходять застосування в комп'ютерному баченні, зокрема в [en] для потоків відео, та в поверхнево-синтаксичному аналізі.
Програмне забезпечення
Це — частковий перелік програмного забезпечення, що втілює загальні інструменти УВП.
- RNNSharp УВП на основі рекурентних нейронних мереж (C#, .NET)
- лінійно-ланцюгові УВП зі швидким інтерактивним ADF-тренуванням (C#, .NET)
- CRFSharp лінійно-ланцюгові УВП (C#, .NET)
- GCO УВП з субмодулярними функціями енергії (, Matlab)
- DGM загальні УВП ()
- GRMM загальні УВП (Java)
- factorie загальні УВП (Scala)
- CRFall загальні УВП (Matlab)
- Sarawagi's CRF лінійно-ланцюгові УВП (Java)
- HCRF library приховано-станові УВП (, Matlab)
- Accord.NET лінійно-ланцюгові УВП, ПУВП та ПММ (C#, .NET)
- Wapiti швидкі лінійно-ланцюгові УВП (C)
- CRFSuite швидкі обмежені лінійно-ланцюгові УВП (C)
- лінійно-ланцюгові УВП ()
- FlexCRFs марковські УВП першого та другого порядків ()
- crf-chain1 лінійно-ланцюгові УВП першого порядку (Haskell)
- УВП для сегментування зображень та томів зображень ()
- MALLET лінійно-ланцюгові для маркування послідовностей (Java)
- PyStruct структурове навчання в Python (Python)
- Pycrfsuite python-обв'язка для crfsuite (Python)
- Figaro ймовірнісна мова програмування, здатна визначати УВП та інші графові моделі (Scala)
- CRF моделювальні та обчислювальні інструменти для УВП та інших неспрямованих графових моделей (R)
- OpenGM бібліотека для дискретних [en] моделей та розподілених операцій на цих моделях ()
- UPGMpp бібліотека для побудови, тренування неспрямованих графових моделей, та виконання висновування на них ()
- KEG_CRF швидкі лінійні УВП ()
Це — частковий перелік програмного забезпечення, що втілює пов'язані з УВП інструменти.
Див. також
- [en]
- Графова модель
- Марковське випадкове поле
- [en] (МЕММ)
Примітки
- Lafferty, J., McCallum, A., Pereira, F. (2001). Conditional random fields: Probabilistic models for segmenting and labeling sequence data. Proc. 18th International Conf. on Machine Learning. Morgan Kaufmann. с. 282—289. (англ.)
- ; Zemel, R.S.; Carreira-Perpinñán, M.A. (2004). Multiscale conditional random fields for image labeling. IEEE Computer Society. CiteSeerX 10.1.1.3.7826. (англ.)
- Sha, F.; Pereira, F. (2003). shallow parsing with conditional random fields. (англ.)
- Settles, B. (2004). Biomedical named entity recognition using conditional random fields and rich feature sets (PDF). Proceedings of the International Joint Workshop on Natural Language Processing in Biomedicine and its Applications. с. 104—107. (англ.)
- Chang KY; Lin T-p; Shih L-Y; Wang C-K (2015). Analysis and Prediction of the Critical Regions of Antimicrobial Peptides Based on Conditional Random Fields. PLoS ONE. doi:10.1371/journal.pone.0119490. PMC 4372350.
{{}}
: Обслуговування CS1: Сторінки із непозначеним DOI з безкоштовним доступом () (англ.) - J.R. Ruiz-Sarmiento; C. Galindo; J. Gonzalez-Jimenez (2015). UPGMpp: a Software Library for Contextual Object Recognition.. 3rd. Workshop on Recognition and Action for Scene Understanding (REACTS). (англ.)
- Sutton, Charles; McCallum, Andrew (2010). An Introduction to Conditional Random Fields. arXiv:1011.4088v1 [stat.ML]. (англ.)
- Lavergne, Thomas; Yvon, François (7 вересня 2017). Learning the Structure of Variable-Order CRFs: a Finite-State Perspective. Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing. Copenhagen, Denmark: Association for Computational Linguistics. с. 433. (англ.)
- Chatzis, Sotirios; Demiris, Yiannis (2013). The Infinite-Order Conditional Random Field Model for Sequential Data Modeling. IEEE Transactions on Pattern Analysis and Machine Intelligence. 35 (6): 1523—1534. doi:10.1109/tpami.2012.208. PMID 23599063. (англ.)
- Gasthaus, Jan; Teh, Yee Whye (2010). Improvements to the Sequence Memoizer (PDF). Proc. NIPS. (англ.)
- Celeux, G.; Forbes, F.; Peyrard, N. (2003). EM Procedures Using Mean Field-Like Approximations for Markov Model-Based Image Segmentation. Pattern Recognition. 36 (1): 131—144. CiteSeerX 10.1.1.6.9064. doi:10.1016/s0031-3203(02)00027-4. (англ.)
- Sarawagi, Sunita; Cohen, William W. (2005). . У Lawrence K. Saul, Yair Weiss, Léon Bottou (eds.) (ред.). Advances in Neural Information Processing Systems 17. Cambridge, MA: MIT Press. с. 1185—1192. Архів оригіналу (PDF) за 30 листопада 2019. Процитовано 30 листопада 2019. (англ.)
- Xu Sun; Takuya Matsuzaki; Daisuke Okanohara; Jun'ichi Tsujii (2009). . IJCAI. с. 1236—1242. Архів оригіналу за 6 грудня 2018. Процитовано 30 листопада 2019. (англ.)
- Morency, L. P.; Quattoni, A.; Darrell, T. (2007). Latent-Dynamic Discriminative Models for Continuous Gesture Recognition (PDF). 2007 IEEE Conference on Computer Vision and Pattern Recognition. с. 1. CiteSeerX 10.1.1.420.6836. doi:10.1109/CVPR.2007.383299. ISBN . (англ.)
- T. Lavergne, O. Cappé and F. Yvon (2010). Practical very large scale CRFs [ 2013-07-18 у Wayback Machine.]. Proc. 48th Annual Meeting of the [en], pp. 504—513. (англ.)
Література
- McCallum, A.: Efficiently inducing features of conditional random fields. In: Proc. 19th Conference on Uncertainty in Artificial Intelligence. (2003) (англ.)
- Wallach, H.M.: Conditional random fields: An introduction. Technical report MS-CIS-04-21, University of Pennsylvania (2004) (англ.)
- Sutton, C., McCallum, A.: An Introduction to Conditional Random Fields for Relational Learning. In «Introduction to Statistical Relational Learning». Edited by [en] and Ben Taskar. MIT Press. (2006) Online PDF (англ.)
- Klinger, R., Tomanek, K.: Classical Probabilistic Models and Conditional Random Fields. Algorithm Engineering Report TR07-2-013, Department of Computer Science, Dortmund University of Technology, December 2007. ISSN 1864-4503. Online PDF (англ.)
Вікіпедія, Українська, Україна, книга, книги, бібліотека, стаття, читати, завантажити, безкоштовно, безкоштовно завантажити, mp3, відео, mp4, 3gp, jpg, jpeg, gif, png, малюнок, музика, пісня, фільм, книга, гра, ігри, мобільний, телефон, android, ios, apple, мобільний телефон, samsung, iphone, xiomi, xiaomi, redmi, honor, oppo, nokia, sonya, mi, ПК, web, Інтернет
Cya stattya maye kilka nedolikiv Bud laska dopomozhit udoskonaliti yiyi abo obgovorit ci problemi na storinci obgovorennya Cya stattya nadaye nedostatno kontekstnoyi informaciyi dlya ne obiznanih iz yiyi predmetom Bud laska dopomozhit udoskonaliti cyu stattyu dodavshi zrozumilu kontekstnu informaciyu listopad 2019 Cyu stattyu napisano zanadto profesijnim stilem zi specifichnoyu terminologiyeyu sho mozhe buti nezrozumilim dlya bilshosti chitachiv Vi mozhete dopomogti vdoskonaliti cyu stattyu zrobivshi yiyi zrozumiloyu dlya nespecialistiv bez vtrat zmistu Mozhlivo storinka obgovorennya mistit zauvazhennya shodo potribnih zmin listopad 2019 Umo vni vipadko vi polya UVP angl conditional random fields CRFs ce klas metodiv statistichnogo modelyuvannya yaki chasto zastosovuyut v rozpiznavanni obraziv ta mashinnomu navchanni j vikoristovuyut dlya strukturovogo peredbachuvannya UVP nalezhat do rodini modelyuvannya poslidovnostej Na vidminu vid diskretnogo klasifikatora yakij peredbachuye mitku dlya okremogo zrazka bez vrahuvannya susidnih zrazkiv UVP mozhe brati do uvagi kontekst napriklad linijno lancyugove UVP sho ye populyarnim v obrobci prirodnoyi movi peredbachuye poslidovnosti mitok dlya poslidovnostej vhodovih zrazkiv UVP ye odnim z tipiv rozriznyuvalnih nespryamovanih imovirnisnih grafovih modelej Yih vikoristovuyut dlya koduvannya vidomih vzayemozv yazkiv mizh sposterezhennyami ta pobudovi uzgodzhenih predstavlen i chasto vikoristovuyut dlya en abo rozbirannya poslidovnih danih takih yak obrobka prirodnih mov ta biologichni poslidovnosti ta v komp yuternomu bachenni Zokrema UVP sered inshih zadach znahodyat zastosuvannya v rozmichuvanni chastin movi poverhnevo sintaksichnomu analizi rozpiznavanni imenovanih sutnostej en ta poshuku peptidnih kritichnih funkcijnih oblastej buduchi alternativoyu sporidnenim prihovanim markovskim modelyam PMM U komp yuternomu zori UVP chasto vikoristovuyut dlya rozpiznavannya ob yektiv ta segmentuvannya zobrazhen Opis en en ta Perejra viznachili UVP na sposterezhennyah X displaystyle boldsymbol X ta vipadkovih zminnih Y displaystyle boldsymbol Y nastupnim chinom Nehaj G V E displaystyle G V E ye takim grafom sho Y Yv v V displaystyle boldsymbol Y boldsymbol Y v v in V tak sho Y displaystyle boldsymbol Y indeksovano vershinami G displaystyle G Todi X Y displaystyle boldsymbol X boldsymbol Y ye umovnim vipadkovim polem koli vipadkovi zminni Yv displaystyle boldsymbol Y v obumovleni X displaystyle boldsymbol X volodiyut markovskoyu vlastivistyu po vidnoshennyu do cogo grafu p Yv X Yw w v p Yv X Yw w v displaystyle p boldsymbol Y v boldsymbol X boldsymbol Y w w neq v p boldsymbol Y v boldsymbol X boldsymbol Y w w sim v de w v displaystyle mathit w sim v oznachaye sho w displaystyle w ta v displaystyle v ye susidami v G displaystyle G Ce oznachaye sho UVP ye nespryamovanoyu grafovoyu modellyu chiyi vershini mozhe buti podileno na rivno dvi neperetinni mnozhini X displaystyle boldsymbol X ta Y displaystyle boldsymbol Y sposterezhuvani ta vihodovi zminni vidpovidno todi modelyuyut umovnij rozpodil p Y X displaystyle p boldsymbol Y boldsymbol X Visnovuvannya Dlya grafiv zagalnogo viglyadu zadacha tochnogo visnovuvannya v UVP ye nerozv yaznoyu Zadacha visnovuvannya dlya UVP ye po suti takoyu zh yak i dlya en i mayut misce ti sami argumenti Prote isnuyut osoblivi vipadki dlya yakih visnovuvannya ye zdijsnennim Yaksho graf ye lancyugom abo derevom to tochni rozv yazki dayut algoritmi peredavannya povidomlen Algoritmi sho zastosovuyut v cih vipadkah ye analogichnimi do en ta algoritmu Viterbi dlya vipadku PMM Yaksho UVP mistit lishe poparni potenciali j cya energiya ye en to tochni rozv yazki dayut kombinatorni algoritmi minimalnogo rozrizu maksimalnogo potoku Yaksho tochne visnovuvannya ye nemozhlivim to mozhlivo zastosovuvati dekilka algoritmiv dlya otrimuvannya nablizhenih rozv yazkiv Do nih nalezhat en Alfa rozshirennya angl alpha expansion Visnovuvannya serednogo polya angl mean field inference en Navchannya parametriv Navchannya parametriv 8 displaystyle theta zazvichaj vikonuyut navchannyam maksimalnoyi pravdopodibnosti dlya p Yi Xi 8 displaystyle p Y i X i theta Yaksho vsi vuzli mayut rozpodili eksponencijnogo simejstva ta ye sposterezhuvanimi pid chas trenuvannya to cya optimizaciya ye opukloyu Yiyi mozhlivo rozv yazuvati napriklad zastosuvannyam algoritmiv gradiyentnogo spusku abo kvazi nyutonovimi metodami takimi yak algoritm en Z inshogo boku yaksho deyaki zminni ye nesposterezhuvanimi to dlya cih zminnih maye buti rozv yazano zadachu visnovuvannya Dlya grafiv zagalnogo viglyadu tochne visnovuvannya ye nepiddatlivim tozh mayut zastosovuvatisya nablizhennya Prikladi U poslidovnisnomu modelyuvanni graf yakij stanovit interes zazvichaj ye lancyugovim Vhodova poslidovnist sposterezhuvanih zminnih X displaystyle X predstavlyaye poslidovnist sposterezhen a Y displaystyle Y predstavlyaye prihovanu abo nevidomu zminnu stanu visnovki pro yaku potribno otrimuvati zi sposterezhen Yi displaystyle Y i strukturuyut tak shobi utvoriti lancyug z rebrami mizh kozhnimi Yi 1 displaystyle Y i 1 ta Yi displaystyle Y i Mayuchi proste predstavlennya Yi displaystyle Y i yak mitok dlya kozhnogo z elementiv poslidovnosti vhodu ce komponuvannya takozh umozhlivlyuye diyevi algoritmi dlya trenuvannya modeli navchannya umovnih rozpodiliv mizh Yi displaystyle Y i ta funkciyami oznak dlya deyakogo korpusu trenuvalnih danih dekoduvannya viznachennya jmovirnosti zadanoyi poslidovnosti mitok Y displaystyle Y za zadanoyi X displaystyle X visnovuvannya viznachennya najpravdopodibnishoyi poslidovnosti mitok Y displaystyle Y za zadanoyi X displaystyle X Umovnu zalezhnist kozhnoyi z Yi displaystyle Y i vid X displaystyle X viznachayut cherez fiksovanij nabir funkcij oznak viglyadu f i Yi 1 Yi X displaystyle f i Y i 1 Y i X yaki mozhlivo rozglyadati yak vimiryuvannya na poslidovnosti vhodu sho chastkovo viznachayut pravdopodibnist kozhnogo z mozhlivih znachen Yi displaystyle Y i Cya model priznachuye kozhnij oznaci chislovu vagu j poyednuye yih dlya viznachennya jmovirnosti pevnogo znachennya Yi displaystyle Y i Linijno lancyugovi UVP mayut bagato takih zhe zastosuvan yak i konceptualno prostishi prihovani markovski modeli PMM ale poslablyuyut deyaki vihidni polozhennya shodo rozpodiliv poslidovnostej vhodu ta vihodu PMM mozhlivo grubo rozumiti yak UVP z duzhe osoblivimi funkciyami oznak yaki vikoristovuyut stali jmovirnosti dlya modelyuvanni perehodiv staniv ta vihodiv I navpaki UVP mozhlivo grubo rozumiti yak uzagalnennya PMM yake robit stali jmovirnosti perehodiv dovilnimi funkciyami sho minyatsya nad poziciyami v poslidovnosti prihovanih staniv zalezhno vid poslidovnosti vhodu Primitno sho na protivagu do PMM UVP mozhut mistiti bud yake chislo funkcij oznak ci funkciyi oznak mozhut oglyadati vsyu poslidovnist vhodu X displaystyle X v bud yakij moment visnovuvannya i spektrovi funkcij oznak ne potribno mati jmovirnisnoyi interpretaciyi VariantiUVP vishih poryadkiv ta napivmarkovski UVP UVP mozhlivo rozshiriti do modelej vishih poryadkiv zrobivshi kozhnu z Yi displaystyle Y i zalezhnoyu vid fiksovanogo chisla k displaystyle k poperednih zminnih Yi k Yi 1 displaystyle Y i k Y i 1 U zvichajnih formulyuvannyah UVP vishih poryadkiv trenuvannya ta visnovuvannya ye diyevimi lishe dlya malenkih znachen k displaystyle k takih yak k 5 oskilki yihnya obchislyuvalna vitratnist zrostaye z k displaystyle k eksponencijno Prote inshomu neshodavnomu prosuvannyu vdalosya polipshiti ci nyuansi shlyahom zadiyuvannya ponyat ta instrumentiv z oblasti bayesovoyi neparametriyi Konkretnishe UVP neskinchennij angl CRF infinity pidhid stanovit UVP model zdatnu navchatisya neskinchenno trivaloyi chasovoyi dinamiki masshtabovanoyu maneroyu Ce zdijsnyuyetsya vvedennyam novitnoyi funkciyi potencialu dlya UVP yaka gruntuyetsya na zapam yatovuvachi poslidovnostej ZP angl Sequence Memoizer SM neparametrichnij bayesovij modeli dlya navchannya neskinchenno trivalih dinamik u poslidovnih sposterezhennyah Shobi zrobiti taku model obchislyuvalno piddatlivoyu UVP neskinchennist zastosovuye nablizhennya serednogo polya zapostulovanih novitnih funkcij potencialu yaki vede ZP Ce dozvolyaye vinahoditi diyevi algoritmi nablizhenogo trenuvannya ta visnovuvannya dlya ciyeyi modeli ne pidrivayuchi yiyi zdatnosti shoplyuvati ta modelyuvati chasovi zalezhnosti dovilnoyi trivalosti Isnuye she odne uzagalnennya UVP napivma rkovske umo vne vipadko ve po le napiv UVP angl semi Markov conditional random field semi CRF yake modelyuye segmentuvannya dovilnoyi dovzhini poslidovnosti mitok Y displaystyle Y Vono zabezpechuye majzhe taku zh potuzhnist dlya modelyuvannya dovgotrivalih zalezhnostej Yi displaystyle Y i yak i UVP vishih poryadkiv za pomirnih obchislyuvalnih vitrat Nareshti yak alternativu proceduri trenuvannya UVP mozhlivo rozglyadati modeli z shirokim rozdilennyam angl large margin models dlya strukturovogo peredbachuvannya taki yak en Latentno dinamichne umovne vipadkove pole Late ntno dinami chni umo vni vipadko vi po lya LDUVP angl latent dynamic conditional random fields LDCRF abo rozri znyuvalni imovi rnisni mode li z late ntnimi zmi nnimi RIMLZ angl discriminative probabilistic latent variable models DPLVM ce odin iz tipiv UVP dlya zadach markuvannya poslidovnostej Voni ye en sho trenuyut rozriznyuvalno V LDUVP yak i v bud yakij zadachi markuvannya poslidovnostej dlya zadanoyi poslidovnosti sposterezhen x x1 xn displaystyle x 1 dots x n golovnoyu zadacheyu yaku cya model musit rozv yazati ye yak priznachiti poslidovnist mitok y y1 yn displaystyle y 1 dots y n z odniyeyi skinchennoyi mnozhini mitok Y Zamist modelyuvati P y x bezposeredno yak robilo bi zvichajne linijno lancyugove UVP mizh x ta y vstavlyayut mnozhinu latentnih zminnih h zastosovuyuchi lancyugove pravilo jmovirnosti P y x hP y h x P h x displaystyle P mathbf y mathbf x sum mathbf h P mathbf y mathbf h mathbf x P mathbf h mathbf x Ce dozvolyaye shoplyuvati latentnu strukturu mizh sposterezhennyami ta mitkami V toj chas yak LDUVP mozhe buti trenovano z vikoristannyam kvazi nyutonovih metodiv dlya nih na osnovi algoritmu strukturovogo perceptronu Kollinza takozh bulo rozrobleno osoblivu versiyu algoritmu perceptronu nazvanu perceptro nom z late ntnimi zmi nnimi angl latent variable perceptron Ci modeli znahodyat zastosuvannya v komp yuternomu bachenni zokrema v en dlya potokiv video ta v poverhnevo sintaksichnomu analizi Programne zabezpechennyaCe chastkovij perelik programnogo zabezpechennya sho vtilyuye zagalni instrumenti UVP RNNSharp UVP na osnovi rekurentnih nejronnih merezh C NET linijno lancyugovi UVP zi shvidkim interaktivnim ADF trenuvannyam C NET CRFSharp linijno lancyugovi UVP C NET GCO UVP z submodulyarnimi funkciyami energiyi C Matlab DGM zagalni UVP C GRMM zagalni UVP Java factorie zagalni UVP Scala CRFall zagalni UVP Matlab Sarawagi s CRF linijno lancyugovi UVP Java HCRF library prihovano stanovi UVP C Matlab Accord NET linijno lancyugovi UVP PUVP ta PMM C NET Wapiti shvidki linijno lancyugovi UVP C CRFSuite shvidki obmezheni linijno lancyugovi UVP C linijno lancyugovi UVP C FlexCRFs markovski UVP pershogo ta drugogo poryadkiv C crf chain1 linijno lancyugovi UVP pershogo poryadku Haskell UVP dlya segmentuvannya zobrazhen ta tomiv zobrazhen C MALLET linijno lancyugovi dlya markuvannya poslidovnostej Java PyStruct strukturove navchannya v Python Python Pycrfsuite python obv yazka dlya crfsuite Python Figaro jmovirnisna mova programuvannya zdatna viznachati UVP ta inshi grafovi modeli Scala CRF modelyuvalni ta obchislyuvalni instrumenti dlya UVP ta inshih nespryamovanih grafovih modelej R OpenGM biblioteka dlya diskretnih en modelej ta rozpodilenih operacij na cih modelyah C UPGMpp biblioteka dlya pobudovi trenuvannya nespryamovanih grafovih modelej ta vikonannya visnovuvannya na nih C KEG CRF shvidki linijni UVP C Ce chastkovij perelik programnogo zabezpechennya sho vtilyuye pov yazani z UVP instrumenti MedaCy rozpiznavach medichnih imenovanih sutnostej Python peredbachuvach geniv na osnovi UVP Java Stanford NER rozpiznavach imenovanih sutnostej Java rozpiznavach imenovanih sutnostej Java Div takozh en Grafova model Markovske vipadkove pole en MEMM PrimitkiLafferty J McCallum A Pereira F 2001 Conditional random fields Probabilistic models for segmenting and labeling sequence data Proc 18th International Conf on Machine Learning Morgan Kaufmann s 282 289 angl Zemel R S Carreira Perpinnan M A 2004 Multiscale conditional random fields for image labeling IEEE Computer Society CiteSeerX 10 1 1 3 7826 angl Sha F Pereira F 2003 shallow parsing with conditional random fields angl Settles B 2004 Biomedical named entity recognition using conditional random fields and rich feature sets PDF Proceedings of the International Joint Workshop on Natural Language Processing in Biomedicine and its Applications s 104 107 angl Chang KY Lin T p Shih L Y Wang C K 2015 Analysis and Prediction of the Critical Regions of Antimicrobial Peptides Based on Conditional Random Fields PLoS ONE doi 10 1371 journal pone 0119490 PMC 4372350 a href wiki D0 A8 D0 B0 D0 B1 D0 BB D0 BE D0 BD Cite conference title Shablon Cite conference cite conference a Obslugovuvannya CS1 Storinki iz nepoznachenim DOI z bezkoshtovnim dostupom posilannya angl J R Ruiz Sarmiento C Galindo J Gonzalez Jimenez 2015 UPGMpp a Software Library for Contextual Object Recognition 3rd Workshop on Recognition and Action for Scene Understanding REACTS angl Sutton Charles McCallum Andrew 2010 An Introduction to Conditional Random Fields arXiv 1011 4088v1 stat ML angl Lavergne Thomas Yvon Francois 7 veresnya 2017 Learning the Structure of Variable Order CRFs a Finite State Perspective Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing Copenhagen Denmark Association for Computational Linguistics s 433 angl Chatzis Sotirios Demiris Yiannis 2013 The Infinite Order Conditional Random Field Model for Sequential Data Modeling IEEE Transactions on Pattern Analysis and Machine Intelligence 35 6 1523 1534 doi 10 1109 tpami 2012 208 PMID 23599063 angl Gasthaus Jan Teh Yee Whye 2010 Improvements to the Sequence Memoizer PDF Proc NIPS angl Celeux G Forbes F Peyrard N 2003 EM Procedures Using Mean Field Like Approximations for Markov Model Based Image Segmentation Pattern Recognition 36 1 131 144 CiteSeerX 10 1 1 6 9064 doi 10 1016 s0031 3203 02 00027 4 angl Sarawagi Sunita Cohen William W 2005 U Lawrence K Saul Yair Weiss Leon Bottou eds red Advances in Neural Information Processing Systems 17 Cambridge MA MIT Press s 1185 1192 Arhiv originalu PDF za 30 listopada 2019 Procitovano 30 listopada 2019 angl Xu Sun Takuya Matsuzaki Daisuke Okanohara Jun ichi Tsujii 2009 IJCAI s 1236 1242 Arhiv originalu za 6 grudnya 2018 Procitovano 30 listopada 2019 angl Morency L P Quattoni A Darrell T 2007 Latent Dynamic Discriminative Models for Continuous Gesture Recognition PDF 2007 IEEE Conference on Computer Vision and Pattern Recognition s 1 CiteSeerX 10 1 1 420 6836 doi 10 1109 CVPR 2007 383299 ISBN 978 1 4244 1179 5 angl T Lavergne O Cappe and F Yvon 2010 Practical very large scale CRFs 2013 07 18 u Wayback Machine Proc 48th Annual Meeting of the en pp 504 513 angl LiteraturaMcCallum A Efficiently inducing features of conditional random fields In Proc 19th Conference on Uncertainty in Artificial Intelligence 2003 angl Wallach H M Conditional random fields An introduction Technical report MS CIS 04 21 University of Pennsylvania 2004 angl Sutton C McCallum A An Introduction to Conditional Random Fields for Relational Learning In Introduction to Statistical Relational Learning Edited by en and Ben Taskar MIT Press 2006 Online PDF angl Klinger R Tomanek K Classical Probabilistic Models and Conditional Random Fields Algorithm Engineering Report TR07 2 013 Department of Computer Science Dortmund University of Technology December 2007 ISSN 1864 4503 Online PDF angl