Структурове передбачування, структурове навчання або навчання структурованого ви́ходу (англ. structured prediction, structured (output) learning) — це узагальнювальний термін для методик керованого машинного навчання, які включають передбачування структурованих об'єктів, а не скалярних дискретних або дійснозначних значень.
Наприклад, задачу переведення речення природною мовою до синтаксичного представлення, такого як дерево розбору, можливо розглядати як [en] структурового передбачування, в якій область значень структурового виходу є множиною всіх можливих синтаксичних дерев.
Великий клас структурових передбачувальних моделей утворюють імовірнісні графові моделі. Зокрема, для розв'язування задач структурового передбачування в широкому спектрі застосувань, включно з біоінформатикою, обробкою природної мови, розпізнаванням мовлення та комп'ютерним баченням, популярним є застосування баєсових мереж та випадкових полів. До інших алгоритмів та моделей для структурового передбачування належать [en], [en], [en], [en] та [en].
Подібно до широко застосовуваних методик керованого навчання, моделі структурового передбачування зазвичай тренують за допомогою спостережених даних, в яких істинне значення передбачення використовують для налаштовування параметрів моделі. Через складність моделі та взаємопов'язаність передбачуваних змінних, процес передбачування із застосуванням натренованої моделі, та власне тренування, часто є обчислювально нездійсненним, і застосовують методи [en] та навчання.
Приклад: розмічування послідовностей
Розмічування послідовностей — це клас задач, що превалюють в обробці природної мови, де входові дані часто є послідовностями (наприклад, послідовностями тексту). Задача розмічування послідовностей з'являється під кількома личинами, такими як розмічування частин мови та розпізнавання іменованих сутностей. В розмічуванні частин мови, наприклад, кожне слово в послідовності мусить отримати «мітку» (класу), яка виражає свій «тип» слова:
Головним викликом в цій задачі є розв'язування багатозначностей: слово «sentence» в англійській мові може також бути дієсловом, і бути розміченим відповідно.
І хоч цю задачу й можливо розв'язувати просто виконанням класифікації окремих лексем, такий підхід не враховує того емпіричного факту, що лексеми не трапляються незалежно; натомість, кожна мітка демонструє сильну [en] від мітки попереднього слова. Цей факт може бути використано в послідовнісній моделі, такій як прихована марковська модель або умовне випадкове поле, що передбачує всю послідовність для речення, замість передбачування лише окремих міток, засобами алгоритму Вітербі.
Структуровий перцептрон
Одним із найлегших способів зрозуміти алгоритми для загального структурового передбачування є структуровий перцептрон [en]. Цей алгоритм поєднує алгоритм перцептрону для навчання лінійних класифікаторів з алгоритмом висновування (класично при застосуванні на послідовнісних даних — алгоритм Вітербі), і його може бути абстрактно описано наступним чином. Спершу визначмо «спільну функцію ознак» Φ(x, y), що відображує тренувальний зразок x та кандидатуру передбачення y на вектор довжини n (x та y можуть мати будь-яку структуру; n залежить від задачі, але його мусить бути зафіксовано для кожної моделі). Нехай GEN — це функція, що породжує кандидатури передбачень. Тоді:
- Нехай є ваговим вектором довжини n
- Для визначеного наперед числа ітерацій:
- Для кожного зразка в тренувальному наборі, зі справжнім виходом :
- Зробити передбачення
- Уточнити , з до : , є темпом навчання
- Для кожного зразка в тренувальному наборі, зі справжнім виходом :
На практиці знаходження argmax над здійснюватиметься із застосуванням такого алгоритму, як Вітербі, або такого алгоритму, як [en], замість вичерпного пошуку експоненційно великим набором кандидатів.
Ідея навчання є подібною до багатокласового перцептрону.
Див. також
- Умовне випадкове поле
- [en]
- [en]
- Рекурентна нейронна мережа, зокрема, мережі Елмана (ПРМ, англ. SRN)
Примітки
- Gökhan BakIr, Ben Taskar, Thomas Hofmann, Bernhard Schölkopf, Alex Smola and SVN Vishwanathan (2007), Predicting Structured Data [ 15 липня 2018 у Wayback Machine.], MIT Press. (англ.)
- Lafferty, J., McCallum, A., Pereira, F. (2001). (PDF). Proc. 18th International Conf. on Machine Learning. с. 282—289. Архів оригіналу (PDF) за 7 червня 2013. Процитовано 15 липня 2018. (англ.)
- Collins, Michael (2002). (PDF). Proc. EMNLP. Т. 10. Архів оригіналу (PDF) за 8 грудня 2006. Процитовано 15 липня 2018. (англ.)
Література
- Noah Smith, Linguistic Structure Prediction [ 27 липня 2018 у Wayback Machine.], 2011. (англ.)
- Michael Collins, Discriminative Training Methods for Hidden Markov Models [ 24 червня 2018 у Wayback Machine.], 2002. (англ.)
Посилання
- Втілення структурового перцептрону Коллінза [ 11 червня 2018 у Wayback Machine.]
Вікіпедія, Українська, Україна, книга, книги, бібліотека, стаття, читати, завантажити, безкоштовно, безкоштовно завантажити, mp3, відео, mp4, 3gp, jpg, jpeg, gif, png, малюнок, музика, пісня, фільм, книга, гра, ігри, мобільний, телефон, android, ios, apple, мобільний телефон, samsung, iphone, xiomi, xiaomi, redmi, honor, oppo, nokia, sonya, mi, ПК, web, Інтернет
Strukturove peredbachuvannya strukturove navchannya abo navchannya strukturovanogo vi hodu angl structured prediction structured output learning ce uzagalnyuvalnij termin dlya metodik kerovanogo mashinnogo navchannya yaki vklyuchayut peredbachuvannya strukturovanih ob yektiv a ne skalyarnih diskretnih abo dijsnoznachnih znachen Napriklad zadachu perevedennya rechennya prirodnoyu movoyu do sintaksichnogo predstavlennya takogo yak derevo rozboru mozhlivo rozglyadati yak en strukturovogo peredbachuvannya v yakij oblast znachen strukturovogo vihodu ye mnozhinoyu vsih mozhlivih sintaksichnih derev Velikij klas strukturovih peredbachuvalnih modelej utvoryuyut imovirnisni grafovi modeli Zokrema dlya rozv yazuvannya zadach strukturovogo peredbachuvannya v shirokomu spektri zastosuvan vklyuchno z bioinformatikoyu obrobkoyu prirodnoyi movi rozpiznavannyam movlennya ta komp yuternim bachennyam populyarnim ye zastosuvannya bayesovih merezh ta vipadkovih poliv Do inshih algoritmiv ta modelej dlya strukturovogo peredbachuvannya nalezhat en en en en ta en Podibno do shiroko zastosovuvanih metodik kerovanogo navchannya modeli strukturovogo peredbachuvannya zazvichaj trenuyut za dopomogoyu sposterezhenih danih v yakih istinne znachennya peredbachennya vikoristovuyut dlya nalashtovuvannya parametriv modeli Cherez skladnist modeli ta vzayemopov yazanist peredbachuvanih zminnih proces peredbachuvannya iz zastosuvannyam natrenovanoyi modeli ta vlasne trenuvannya chasto ye obchislyuvalno nezdijsnennim i zastosovuyut metodi en ta navchannya Priklad rozmichuvannya poslidovnostejRozmichuvannya poslidovnostej ce klas zadach sho prevalyuyut v obrobci prirodnoyi movi de vhodovi dani chasto ye poslidovnostyami napriklad poslidovnostyami tekstu Zadacha rozmichuvannya poslidovnostej z yavlyayetsya pid kilkoma lichinami takimi yak rozmichuvannya chastin movi ta rozpiznavannya imenovanih sutnostej V rozmichuvanni chastin movi napriklad kozhne slovo v poslidovnosti musit otrimati mitku klasu yaka virazhaye svij tip slova This en is VBZa en tagged JJsentence NN Golovnim viklikom v cij zadachi ye rozv yazuvannya bagatoznachnostej slovo sentence v anglijskij movi mozhe takozh buti diyeslovom i buti rozmichenim vidpovidno I hoch cyu zadachu j mozhlivo rozv yazuvati prosto vikonannyam klasifikaciyi okremih leksem takij pidhid ne vrahovuye togo empirichnogo faktu sho leksemi ne traplyayutsya nezalezhno natomist kozhna mitka demonstruye silnu en vid mitki poperednogo slova Cej fakt mozhe buti vikoristano v poslidovnisnij modeli takij yak prihovana markovska model abo umovne vipadkove pole sho peredbachuye vsyu poslidovnist dlya rechennya zamist peredbachuvannya lishe okremih mitok zasobami algoritmu Viterbi Strukturovij perceptronOdnim iz najlegshih sposobiv zrozumiti algoritmi dlya zagalnogo strukturovogo peredbachuvannya ye strukturovij perceptron en Cej algoritm poyednuye algoritm perceptronu dlya navchannya linijnih klasifikatoriv z algoritmom visnovuvannya klasichno pri zastosuvanni na poslidovnisnih danih algoritm Viterbi i jogo mozhe buti abstraktno opisano nastupnim chinom Spershu viznachmo spilnu funkciyu oznak F x y sho vidobrazhuye trenuvalnij zrazok x ta kandidaturu peredbachennya y na vektor dovzhini n x ta y mozhut mati bud yaku strukturu n zalezhit vid zadachi ale jogo musit buti zafiksovano dlya kozhnoyi modeli Nehaj GEN ce funkciya sho porodzhuye kandidaturi peredbachen Todi Nehaj w displaystyle w ye vagovim vektorom dovzhini n Dlya viznachenogo napered chisla iteracij Dlya kozhnogo zrazka x displaystyle x v trenuvalnomu nabori zi spravzhnim vihodom t displaystyle t Zrobiti peredbachennya y argmax y GEN x wTϕ x y displaystyle hat y operatorname arg max y in GEN x w T phi x y Utochniti w displaystyle w z y displaystyle hat y do t displaystyle t w w c ϕ x y ϕ x t displaystyle w w c phi x hat y phi x t c displaystyle c ye tempom navchannya dd dd Na praktici znahodzhennya argmax nad GEN x displaystyle GEN x zdijsnyuvatimetsya iz zastosuvannyam takogo algoritmu yak Viterbi abo takogo algoritmu yak en zamist vicherpnogo poshuku eksponencijno velikim naborom kandidativ Ideya navchannya ye podibnoyu do bagatoklasovogo perceptronu Div takozhUmovne vipadkove pole en en Rekurentna nejronna merezha zokrema merezhi Elmana PRM angl SRN PrimitkiGokhan BakIr Ben Taskar Thomas Hofmann Bernhard Scholkopf Alex Smola and SVN Vishwanathan 2007 Predicting Structured Data 15 lipnya 2018 u Wayback Machine MIT Press angl Lafferty J McCallum A Pereira F 2001 PDF Proc 18th International Conf on Machine Learning s 282 289 Arhiv originalu PDF za 7 chervnya 2013 Procitovano 15 lipnya 2018 angl Collins Michael 2002 PDF Proc EMNLP T 10 Arhiv originalu PDF za 8 grudnya 2006 Procitovano 15 lipnya 2018 angl LiteraturaNoah Smith Linguistic Structure Prediction 27 lipnya 2018 u Wayback Machine 2011 angl Michael Collins Discriminative Training Methods for Hidden Markov Models 24 chervnya 2018 u Wayback Machine 2002 angl PosilannyaVtilennya strukturovogo perceptronu Kollinza 11 chervnya 2018 u Wayback Machine