Слабке́ керува́ння (англ. weak supervision) або слабокеро́ване навча́ння, яке також називають напівкеро́ваним навча́нням (англ. semi-supervised learning), — це одна з парадигм машинного навчання, актуальність і помітність якої зросли з появою великих мовних моделей через велику кількість даних, необхідних для того, щоби їх тренувати. Вона характеризується використанням поєднання невеликої кількості даних, [en] людьми (лише які й використовують у дорожчій та часовитратнішій парадигмі керованого навчання), разом із великою кількістю немічених даних (лише які й використовують у парадигмі некерованого навчання). Іншими словами, бажані значення виходу надають лише для підмножини тренувальних даних. Решта даних не мічені, або мічені неточно. Інтуїтивно це можливо розглядати як іспит, а мічені дані — як приклади задач, які вчитель розв'язує для класу як допомогу у розв'язанні іншого набору задач. У трансдуктивній постановці ці нерозв'язані задачі діють як питання іспиту. В індуктивній постановці вони стають практичними задачами такого вигляду, які складатимуть іспит. Технічно це можливо розглядати як виконання кластерування з наступним міченням кластерів за допомогою мічених даних, відсуванням меж рішень від областей із високою густиною, або навчання одновимірного многовида в основі даних, на якому вони перебувають.
Задача
Отримання мічених даних для задачі навчання часто вимагає кваліфікованого агента-людини (наприклад, для транскрибування аудіосегменту) або фізичного експерименту (наприклад, визначення тривимірної структури білка або визначення наявності нафти в певному місці). Таким чином, витрати, пов'язані з процесом мічення, можуть виявитися величезними, повністю мічені тренувальні набори — неможливими, в той час як отримання немічених даних відносно невитратне. В таких ситуаціях напівкероване навчання може мати велике практичне значення. Напівкероване навчання також становить теоретичний інтерес для машинного навчання та як модель людського навчання.
Методика
Формальніше, напівкероване навчання розглядає обробку набору незалежних однаково розподілених прикладів з відповідними мітками , та немічених прикладів . Напівкероване навчання поєднує цю інформацію, щоби перевершити якість класифікації, яку можливо було би отримати, відкинувши немічені дані й виконавши кероване навчання, або відкинувши мітки й виконавши некероване навчання.
Напівкероване навчання може стосуватися або [en], або індуктивного навчання. Мета трансдуктивного навчання полягає у висновуванні правильних міток лише для наданих немічених даних . Метою індуктивного навчання є висновування правильного відображення в .
Непотрібно (і, відповідно до принципу Вапника, необачно) виконувати трансдуктивне навчання шляхом висновування правила класифікації над усім простором входу; проте на практиці алгоритми, формально розроблені для трансдукції або індукції, часто використовують як взаємозамінні.
Припущення
Щоб отримати з немічених даних хоч якусь користь, має існувати певний зв'язок із розподілом в їхній основі. Алгоритми напівкерованого навчання використовують принаймні одне з наступних припущень:
Припущення неперервності/гладкості
Точки, близькі одна до одної, швидше за все, мають спільну мітку. Це також зазвичай припускають у керованім навчанні, воно віддає перевагу геометрично простим [en]. У випадку напівкерованого навчання припущення про плавність додатково дає перевагу межам рішень в областях із низькою густиною, тож менше точок знаходяться близько одна до одної, але в різних класах.[]
Припущення кластерованості
Дані схильні утворювати окремі кластери, й точки в одному кластері, швидше за все, мають спільну мітку (хоча дані, які мають спільну мітку, можуть поширюватися на декілька кластерів). Це особливий випадок припущення про плавність, він дає початок навчанню ознак за допомогою алгоритмів кластерування.
Многовидне припущення
Дані приблизно лежать на многовиді набагато меншої розмірності, ніж простір входу. В цьому випадку навчання цього многовида з використанням як мічених, так і немічених даних може уникати прокляття розмірності. Тоді навчання можливо здійснювати з використанням відстаней і густин, визначених на цьому многовиді.
Многовидне припущення практичне, коли багатовимірні дані породжуються деяким процесом, який може бути важко змоделювати безпосередньо, але який має лише кілька ступенів вільності. Наприклад, людський голос контролюється декількома голосовими зв'я́зками, а зображення різних виразів обличчя — кількома м'язами. У цих випадках краще розглядати відстані та гладкість у природному просторі породжувальної задачі, а не в просторі всіх можливих акустичних хвиль чи зображень відповідно.
Історія
Евристичний підхід самотренування (англ. self-training, відомий також як самонавчання, англ. self-learning, та самомічення, англ. self-labeling) — історично найстаріший підхід напівкерованого навчання, приклади застосування якого починаються з 1960-х років.
Концепцію трансдуктивного навчання офіційно представив Володимир Вапник у 1970-х роках. Інтерес до індуктивного навчання з використанням породжувальних моделей також виник у 1970-х роках. Імовірно приблизно коректне навчання для напівкерованого навчання суміші гауссіанів продемонстровали Рацабі та Венкатеш 1995 року.
Методи
Породжувальні моделі
Породжувальні підходи до статистичного навчання спочатку спрямовані на оцінку ,[ ] розподілу точок даних, що належать кожному класові. Ймовірність що дана точка має мітку відтак пропорційна за правилом Баєса. Напівкероване навчання з породжувальними моделями можливо розглядати або як розширення керованого навчання (класифікування плюс інформація про ), або як розширення некерованого навчання (кластерування плюс трохи міток).
Породжувальні моделі виходять із припущення, що розподіли мають певний вигляд , параметрований вектором . Якщо ці припущення неправильні, немічені дані можуть насправді знизити точність розв'язку порівняно з тим, що було б отримано лише з мічених даних. Проте якщо вони правильні, то немічені дані обов'язково покращать продуктивність.
Немічені дані розподілено відповідно до суміші розподілів окремих класів. Щоби навчитися цієї суміші розподілів із немічених даних, вона повинна бути ідентифіковною, тобто різні параметри повинні давати різні сумарні розподіли. Гауссові сумішеві розподіли ідентифіковні, і їх часто використовують для породжувальних моделей.
Параметрований спільний розподіл за допомогою ланцюгового правила можливо записати як . Кожен вектор параметрів пов'язується з функцією рішення . Потім цей параметр обирають на основі допасованості як до мічених, так і до немічених даних, зважених :
Низькогустинне розділення
Інший важливий клас методів намагається встановлювати межі в областях із невеликою кількістю точок даних (мічених чи немічених). Один із найчастіше вживаних алгоритмів — (трансдуктивна опорновекторна машина), або ТОВМ (англ. TSVM, яку, незважаючи на її назву, можна використовувати й для індуктивного навчання). У той час як опорновекторні машини для керованого навчання шукають межу рішення з максимальним розділенням над міченими даними, мета ТОВМ — мічення немічених даних так, щоби межа рішення мала максимальне розділення над усіма даними. На додачу до стандартних заві́сних втрат для мічених даних запроваджують функцію втрат над неміченими даними, покладаючи . ТОВМ відтак обирає із [en] мінімізуванням регуляризованого емпіричного ризику:
Точне розв'язання непіддатливе через неопуклість члена , тож дослідження зосереджуються на корисних наближеннях.
До інших підходів, які втілюють низькогустинне розділення (англ. low-density separation), належать моделі гауссових процесів, регуляризація інформації, та мінімізація ентропії (окремим випадком якої є ТОВМ).
Лапласова регуляризація
До лапласової регулярізації (англ. laplacian regularization) історично підходили через матрицю Лапласа (Кірхгофа). Методи на основі графів для напівкерованого навчання використовують графове подання даних із вузлами для кожного з мічених і немічених прикладів. Граф можна побудувати, використовуючи знання предметної області, або схожість прикладів; двома поширеними методами є з'єднувати кожну точку даних з її найближчими сусідами, або з прикладами на деякій відстані . Вагу ребра між та відтак встановлюють в .
В системі [en] цей граф слугує посередником для многовида. До стандартної задачі регуляризації Тихонова додають додатковий член, щоби забезпечити гладкість розв'язку відносно многовиду (у внутрішньому просторі задачі), а також відносно навколишнього простору входу. Задача мінімізації набуває вигляду
де — гільбертів простір із відтворювальним ядром, а — многовид, на якому лежать дані. Параметри регуляризації та контролюють гладкість у навколишньому (англ. ambient) та внутрішньому (англ. intrinsic) просторах відповідно. Цей граф використовують для наближення члена внутрішньої регуляризації. Визначивши матрицю Лапласа (Кірхгофа) , де , а це вектор , ми отримуємо
- .
Графовий підхід до лапласової регулярізації пов'язують із методом скінченних різниць.[][]
Матрицю Лапласа (Кірхгофа) також можливо використовувати для розширення алгоритмів керованого навчання: [en] та опорновекторних машин (ОВМ) до напівкерованих версій лапласових регуляризованих найменших квадратів (англ. Laplacian regularized least squares) та лапласових ОВМ (англ. Laplacian SVM).
Евристичні підходи
Деякі методи напівкерованого навчання за своєю суттю не орієнтовані на навчання як із немічених, так і з мічених даних, а натомість використовують немічені дані в рамках керованого навчання. Наприклад, мічені та немічені приклади на некерованому першому кроці можуть інформувати вибір подання, міри відстані, або ядра для даних. Потім продовжується кероване навчання лише з мічених прикладів. У цьому ключі деякі методи навчаються низьковимірного подання, використовуючи керовані дані, а потім застосовують до навченого подання або низькогустинне розділення, або графові методи. Ітеративне вдосконалення подання з наступним виконанням напівкерованого навчання на цьому поданні можуть ще далі підвищувати продуктивність.
Самотренування (англ. self-training) — це обгортковий метод напівкерованого навчання. Спершу тренують алгоритм керованого навчання лише на мічених даних. Відтак цей класифікатор застосовують до немічених даних для породження більшої кількості мічених прикладів як даних входу для алгоритму керованого навчання. Зазвичай на кожному кроці додають лише ті мітки, в яких класифікатор найупевненіший.
[en] (англ. co-training) — це розширення самотренування, в якому декілька класифікаторів тренуються на різних (в ідеалі неперетинних) наборах ознак і породжують мічені приклади один для одного.
У людському пізнанні
Реакції людей на формальні задачі напівкерованого навчання дали мінливі висновки щодо ступеню впливу немічених даних. Природніші задачі навчання також можна розглядати як зразки напівкерованого навчання. Значна частина людського [en] передбачає невелику кількість прямих інструкцій (як-то позначення об'єктів батьками у дитинстві) у поєднанні з великою кількістю неміченого досвіду (як-то спостереження за об'єктами без їхніх назв чи кількостей, або принаймні без зворотного зв'язку).
Людські немовлята чутливі до структури немічених природних категорій, таких як зображення собак чи котів, та чоловічих чи жіночих облич. Немовлята та діти враховують не лише немічені приклади, але й процес вибирання зразків, у результаті якого виникають мічені приклади.
Див. також
- [en]
Примітки
- Ілюшик, Т. С. (2021). Класифікація гістологічних зображень раку простати (PDF) (Магістерська дисертація) (укр.). Київ: НТУУ «КПІ ім. Ігоря Сікорського». Процитовано 16 серпня 2023.
- Клейн, О. М. (2023). Метод та засоби виявлення аномалій в кіберфізичних системах комп’ютерного зору (Кваліфікаційна робота магістра) (укр.). Хмельницький: Хмельницький національний університет. Процитовано 16 серпня 2023.
- Синєглазов, Віктор; Чумаченко, Олена (2022). Бідюк, П. І.; Шугалей, Л. П. (ред.). Методи та технології напівкерованого навчання: Курс лекцій (PDF) (укр.). Київ: НТУУ «КПІ ім. Ігоря Сікорського».
- Кропивницька, В. Б.; Магас, Д. М. (30 квітня 2023). Напівкероване машинне навчання для виявлення несправностей нафтогазопроводів. Modern engineering and innovative technologies (укр.). 1 (18): 33—36. doi:10.30890/2567-5273.2023-26-01-010.
- Semi-Supervised Learning Literature Survey, Page 5, 2007
- Chapelle, Schölkopf та Zien, 2006.
- Stevens, Kenneth N. (1998). Acoustic phonetics (англ.). Cambridge, Mass.: MIT Press. ISBN . OCLC 42856189.
- Scudder, H. (July 1965). Probability of error of some adaptive pattern-recognition machines. IEEE Transactions on Information Theory (англ.). 11 (3): 363—371. doi:10.1109/TIT.1965.1053799. ISSN 1557-9654.
- Вапник, В. Н.; Червоненкис, А. Я. (1974). Теоря распознавания образов (рос.). Москва: Наука. процитована в Chapelle, Schölkopf та Zien, 2006, с. 3
- Ratsaby, J.; Venkatesh, S. Learning from a mixture of labeled and unlabeled examples with parametric side information (PDF) (англ.). у Proceedings of the eighth annual conference on Computational learning theory - COLT '95 (англ.). New York, New York, USA: ACM Press. 1995. с. 412—417. doi:10.1145/225298.225348. ISBN . S2CID 17561403.. Процитована в Chapelle, Schölkopf та Zien, 2006, с. 4
- Fabio, Cozman; Ira, Cohen (22 вересня 2006), Risks of Semi-Supervised Learning: How Unlabeled Data Can Degrade Performance of Generative Classifiers, Semi-Supervised Learning (англ.), The MIT Press, с. 56—72, doi:10.7551/mitpress/9780262033589.003.0004, ISBN У: Chapelle, Schölkopf та Zien, 2006
- Zhu, Xiaojin. Semi-Supervised Learning University of Wisconsin-Madison.
- M. Belkin; P. Niyogi (2004). Semi-supervised Learning on Riemannian Manifolds. Machine Learning (англ.). 56 (Special Issue on Clustering): 209—239. doi:10.1023/b:mach.0000033120.25363.1e.
- M. Belkin, P. Niyogi, V. Sindhwani. On Manifold Regularization. AISTATS 2005. (англ.)
- Iscen, Ahmet; Tolias, Giorgos; Avrithis, Yannis; Chum, Ondrej (2019). Label Propagation for Deep Semi-Supervised Learning. 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR) (англ.). с. 5065—5074. arXiv:1904.04717. doi:10.1109/CVPR.2019.00521. ISBN . S2CID 104291869. Процитовано 26 березня 2021.
- Burkhart, Michael C.; Shan, Kyle (2020). Deep Low-Density Separation for Semi-supervised Classification. International Conference on Computational Science (ICCS). Lecture Notes in Computer Science (англ.). 12139: 297—311. doi:10.1007/978-3-030-50420-5_22. ISBN .
- Triguero, Isaac; García, Salvador; Herrera, Francisco (26 листопада 2013). Self-labeled techniques for semi-supervised learning: taxonomy, software and empirical study. Knowledge and Information Systems (англ.). 42 (2): 245—284. doi:10.1007/s10115-013-0706-y. ISSN 0219-1377. S2CID 1955810.
- Fazakis, Nikos; Karlos, Stamatis; Kotsiantis, Sotiris; Sgarbas, Kyriakos (29 грудня 2015). Self-Trained LMT for Semisupervised Learning. Computational Intelligence and Neuroscience (англ.). 2016: 3057481. doi:10.1155/2016/3057481. PMC 4709606. PMID 26839531.
- Didaci, Luca; Fumera, Giorgio; Roli, Fabio (7 листопада 2012). Gimel’farb, Georgy; Hancock, Edwin; Imiya, Atsushi; Kuijper, Arjan; Kudo, Mineichi; Omachi, Shinichiro; Windeatt, Terry; Yamada, Keiji (ред.). Analysis of Co-training Algorithm with Very Small Training Sets. Lecture Notes in Computer Science (англ.). Springer Berlin Heidelberg. с. 719—726. doi:10.1007/978-3-642-34166-3_79. ISBN . S2CID 46063225.
- Zhu, Xiaojin (2009). Introduction to semi-supervised learning (англ.). Goldberg, A. B. (Andrew B.). [San Rafael, Calif.]: Morgan & Claypool Publishers. ISBN . OCLC 428541480.
- Younger B. A.; Fearing D. D. (1999). Parsing Items into Separate Categories: Developmental Change in Infant Categorization. Child Development (англ.). 70 (2): 291—303. doi:10.1111/1467-8624.00022.
- Xu, F. & Tenenbaum, J. B. (2007). Sensitivity to sampling in Bayesian word learning. Developmental Science (англ.). 10 (3): 288—297. CiteSeerX 10.1.1.141.7505. doi:10.1111/j.1467-7687.2007.00590.x. PMID 17444970.
- Gweon, H., Tenenbaum J.B., and Schulz L.E (2010). Infants consider both the sample and the sampling process in inductive generalization. Proc Natl Acad Sci U S A (англ.). 107 (20): 9066—71. Bibcode:2010PNAS..107.9066G. doi:10.1073/pnas.1003095107. PMC 2889113. PMID 20435914.
Джерела
- Chapelle, Olivier; Schölkopf, Bernhard; Zien, Alexander (2006). Semi-supervised learning (англ.). Cambridge, Mass.: MIT Press. ISBN .
Посилання
- Manifold Regularization Вільно доступне втілення в MATLAB графових напівкерованих алгоритмів лапласових опорновекторних машин та лапласових регуляризованих найменших квадратів.
- KEEL: програмний інструмент для оцінювання еволюційних алгоритмів для задач добування даних (регресії, класифікування, кластерування, добування шаблонів тощо). Модуль KEEL для напівкерованого навчання.
- Програмне забезпечення напівкерованого навчання
- Напівкероване навчання — документація scikit-learn Напівкероване навчання в scikit-learn.
Вікіпедія, Українська, Україна, книга, книги, бібліотека, стаття, читати, завантажити, безкоштовно, безкоштовно завантажити, mp3, відео, mp4, 3gp, jpg, jpeg, gif, png, малюнок, музика, пісня, фільм, книга, гра, ігри, мобільний, телефон, android, ios, apple, мобільний телефон, samsung, iphone, xiomi, xiaomi, redmi, honor, oppo, nokia, sonya, mi, ПК, web, Інтернет
Slabke keruva nnya angl weak supervision abo slabokero vane navcha nnya yake takozh nazivayut napivkero vanim navcha nnyam angl semi supervised learning ce odna z paradigm mashinnogo navchannya aktualnist i pomitnist yakoyi zrosli z poyavoyu velikih movnih modelej cherez veliku kilkist danih neobhidnih dlya togo shobi yih trenuvati Vona harakterizuyetsya vikoristannyam poyednannya nevelikoyi kilkosti danih en lyudmi lishe yaki j vikoristovuyut u dorozhchij ta chasovitratnishij paradigmi kerovanogo navchannya razom iz velikoyu kilkistyu nemichenih danih lishe yaki j vikoristovuyut u paradigmi nekerovanogo navchannya Inshimi slovami bazhani znachennya vihodu nadayut lishe dlya pidmnozhini trenuvalnih danih Reshta danih ne micheni abo micheni netochno Intuyitivno ce mozhlivo rozglyadati yak ispit a micheni dani yak prikladi zadach yaki vchitel rozv yazuye dlya klasu yak dopomogu u rozv yazanni inshogo naboru zadach U transduktivnij postanovci ci nerozv yazani zadachi diyut yak pitannya ispitu V induktivnij postanovci voni stayut praktichnimi zadachami takogo viglyadu yaki skladatimut ispit Tehnichno ce mozhlivo rozglyadati yak vikonannya klasteruvannya z nastupnim michennyam klasteriv za dopomogoyu michenih danih vidsuvannyam mezh rishen vid oblastej iz visokoyu gustinoyu abo navchannya odnovimirnogo mnogovida v osnovi danih na yakomu voni perebuvayut ZadachaShilnist zavdan vikoristovuvati kerovani ta nekerovani metodi Peretin kil nazvami zavdan navmisnij Vin pokazuye sho klasichne vidokremlennya tvorchih zavdan livoruch iz zastosuvannyam nekerovanih metodiv u suchasnih shemah navchannya rozmite Otrimannya michenih danih dlya zadachi navchannya chasto vimagaye kvalifikovanogo agenta lyudini napriklad dlya transkribuvannya audiosegmentu abo fizichnogo eksperimentu napriklad viznachennya trivimirnoyi strukturi bilka abo viznachennya nayavnosti nafti v pevnomu misci Takim chinom vitrati pov yazani z procesom michennya mozhut viyavitisya velicheznimi povnistyu micheni trenuvalni nabori nemozhlivimi v toj chas yak otrimannya nemichenih danih vidnosno nevitratne V takih situaciyah napivkerovane navchannya mozhe mati velike praktichne znachennya Napivkerovane navchannya takozh stanovit teoretichnij interes dlya mashinnogo navchannya ta yak model lyudskogo navchannya MetodikaDiv takozh en Priklad vplivu nemichenih danih u napivkerovanomu navchanni Verhnya panel pokazuye mezhu rishennya yaku mi mozhemo uhvaliti pobachivshi lishe odin pozitivnij bilij kruzhechok j odin negativnij chornij kruzhechok prikladi Na nizhnij paneli pokazano mezhi rishennya yaki mi mogli b uhvaliti yakbi krim dvoh michenih prikladiv mi otrimali nabir nemichenih danih siri kruzhechki Formalnishe napivkerovane navchannya rozglyadaye obrobku naboru l displaystyle l nezalezhnih odnakovo rozpodilenih prikladiv x1 xl X displaystyle x 1 dots x l in X z vidpovidnimi mitkami y1 yl Y displaystyle y 1 dots y l in Y ta u displaystyle u nemichenih prikladiv xl 1 xl u X displaystyle x l 1 dots x l u in X Napivkerovane navchannya poyednuye cyu informaciyu shobi perevershiti yakist klasifikaciyi yaku mozhlivo bulo bi otrimati vidkinuvshi nemicheni dani j vikonavshi kerovane navchannya abo vidkinuvshi mitki j vikonavshi nekerovane navchannya Napivkerovane navchannya mozhe stosuvatisya abo en abo induktivnogo navchannya Meta transduktivnogo navchannya polyagaye u visnovuvanni pravilnih mitok lishe dlya nadanih nemichenih danih xl 1 xl u displaystyle x l 1 dots x l u Metoyu induktivnogo navchannya ye visnovuvannya pravilnogo vidobrazhennya X displaystyle X v Y displaystyle Y Nepotribno i vidpovidno do principu Vapnika neobachno vikonuvati transduktivne navchannya shlyahom visnovuvannya pravila klasifikaciyi nad usim prostorom vhodu prote na praktici algoritmi formalno rozrobleni dlya transdukciyi abo indukciyi chasto vikoristovuyut yak vzayemozaminni PripushennyaShob otrimati z nemichenih danih hoch yakus korist maye isnuvati pevnij zv yazok iz rozpodilom v yihnij osnovi Algoritmi napivkerovanogo navchannya vikoristovuyut prinajmni odne z nastupnih pripushen Pripushennya neperervnosti gladkosti Tochki blizki odna do odnoyi shvidshe za vse mayut spilnu mitku Ce takozh zazvichaj pripuskayut u kerovanim navchanni vono viddaye perevagu geometrichno prostim en U vipadku napivkerovanogo navchannya pripushennya pro plavnist dodatkovo daye perevagu mezham rishen v oblastyah iz nizkoyu gustinoyu tozh menshe tochok znahodyatsya blizko odna do odnoyi ale v riznih klasah dzherelo Pripushennya klasterovanosti Dani shilni utvoryuvati okremi klasteri j tochki v odnomu klasteri shvidshe za vse mayut spilnu mitku hocha dani yaki mayut spilnu mitku mozhut poshiryuvatisya na dekilka klasteriv Ce osoblivij vipadok pripushennya pro plavnist vin daye pochatok navchannyu oznak za dopomogoyu algoritmiv klasteruvannya Mnogovidne pripushennya Dokladnishe en Dani priblizno lezhat na mnogovidi nabagato menshoyi rozmirnosti nizh prostir vhodu V comu vipadku navchannya cogo mnogovida z vikoristannyam yak michenih tak i nemichenih danih mozhe unikati proklyattya rozmirnosti Todi navchannya mozhlivo zdijsnyuvati z vikoristannyam vidstanej i gustin viznachenih na comu mnogovidi Mnogovidne pripushennya praktichne koli bagatovimirni dani porodzhuyutsya deyakim procesom yakij mozhe buti vazhko zmodelyuvati bezposeredno ale yakij maye lishe kilka stupeniv vilnosti Napriklad lyudskij golos kontrolyuyetsya dekilkoma golosovimi zv ya zkami a zobrazhennya riznih viraziv oblichchya kilkoma m yazami U cih vipadkah krashe rozglyadati vidstani ta gladkist u prirodnomu prostori porodzhuvalnoyi zadachi a ne v prostori vsih mozhlivih akustichnih hvil chi zobrazhen vidpovidno IstoriyaEvristichnij pidhid samotrenuvannya angl self training vidomij takozh yak samonavchannya angl self learning ta samomichennya angl self labeling istorichno najstarishij pidhid napivkerovanogo navchannya prikladi zastosuvannya yakogo pochinayutsya z 1960 h rokiv Koncepciyu transduktivnogo navchannya oficijno predstaviv Volodimir Vapnik u 1970 h rokah Interes do induktivnogo navchannya z vikoristannyam porodzhuvalnih modelej takozh vinik u 1970 h rokah Imovirno priblizno korektne navchannya dlya napivkerovanogo navchannya sumishi gaussianiv prodemonstrovali Racabi ta Venkatesh 1995 roku MetodiPorodzhuvalni modeli Porodzhuvalni pidhodi do statistichnogo navchannya spochatku spryamovani na ocinku p x y displaystyle p x y sumnivno obgovoriti rozpodilu tochok danih sho nalezhat kozhnomu klasovi Jmovirnist p y x displaystyle p y x sho dana tochka x displaystyle x maye mitku y displaystyle y vidtak proporcijna p x y p y displaystyle p x y p y za pravilom Bayesa Napivkerovane navchannya z porodzhuvalnimi modelyami mozhlivo rozglyadati abo yak rozshirennya kerovanogo navchannya klasifikuvannya plyus informaciya pro p x displaystyle p x abo yak rozshirennya nekerovanogo navchannya klasteruvannya plyus trohi mitok Porodzhuvalni modeli vihodyat iz pripushennya sho rozpodili mayut pevnij viglyad p x y 8 displaystyle p x y theta parametrovanij vektorom 8 displaystyle theta Yaksho ci pripushennya nepravilni nemicheni dani mozhut naspravdi zniziti tochnist rozv yazku porivnyano z tim sho bulo b otrimano lishe z michenih danih Prote yaksho voni pravilni to nemicheni dani obov yazkovo pokrashat produktivnist Nemicheni dani rozpodileno vidpovidno do sumishi rozpodiliv okremih klasiv Shobi navchitisya ciyeyi sumishi rozpodiliv iz nemichenih danih vona povinna buti identifikovnoyu tobto rizni parametri povinni davati rizni sumarni rozpodili Gaussovi sumishevi rozpodili identifikovni i yih chasto vikoristovuyut dlya porodzhuvalnih modelej Parametrovanij spilnij rozpodil za dopomogoyu lancyugovogo pravila mozhlivo zapisati yak p x y 8 p y 8 p x y 8 displaystyle p x y theta p y theta p x y theta Kozhen vektor parametriv 8 displaystyle theta pov yazuyetsya z funkciyeyu rishennya f8 x argmaxy p y x 8 displaystyle f theta x underset y operatorname argmax p y x theta Potim cej parametr obirayut na osnovi dopasovanosti yak do michenih tak i do nemichenih danih zvazhenih l displaystyle lambda argmax8 log p xi yi i 1l 8 llog p xi i l 1l u 8 displaystyle underset Theta operatorname argmax left log p x i y i i 1 l theta lambda log p x i i l 1 l u theta right Nizkogustinne rozdilennya Inshij vazhlivij klas metodiv namagayetsya vstanovlyuvati mezhi v oblastyah iz nevelikoyu kilkistyu tochok danih michenih chi nemichenih Odin iz najchastishe vzhivanih algoritmiv transduktivna opornovektorna mashina abo TOVM angl TSVM yaku nezvazhayuchi na yiyi nazvu mozhna vikoristovuvati j dlya induktivnogo navchannya U toj chas yak opornovektorni mashini dlya kerovanogo navchannya shukayut mezhu rishennya z maksimalnim rozdilennyam nad michenimi danimi meta TOVM michennya nemichenih danih tak shobi mezha rishennya mala maksimalne rozdilennya nad usima danimi Na dodachu do standartnih zavi snih vtrat 1 yf x displaystyle 1 yf x dlya michenih danih zaprovadzhuyut funkciyu vtrat 1 f x displaystyle 1 f x nad nemichenimi danimi pokladayuchi y sign f x displaystyle y operatorname sign f x TOVM vidtak obiraye f x h x b displaystyle f x h x b iz en H displaystyle mathcal H minimizuvannyam regulyarizovanogo empirichnogo riziku f argminf i 1l 1 yif xi l1 h H2 l2 i l 1l u 1 f xi displaystyle f underset f operatorname argmin left displaystyle sum i 1 l 1 y i f x i lambda 1 h mathcal H 2 lambda 2 sum i l 1 l u 1 f x i right Tochne rozv yazannya nepiddatlive cherez neopuklist chlena 1 f x displaystyle 1 f x tozh doslidzhennya zoseredzhuyutsya na korisnih nablizhennyah Do inshih pidhodiv yaki vtilyuyut nizkogustinne rozdilennya angl low density separation nalezhat modeli gaussovih procesiv regulyarizaciya informaciyi ta minimizaciya entropiyi okremim vipadkom yakoyi ye TOVM Laplasova regulyarizaciya Do laplasovoyi regulyarizaciyi angl laplacian regularization istorichno pidhodili cherez matricyu Laplasa Kirhgofa Metodi na osnovi grafiv dlya napivkerovanogo navchannya vikoristovuyut grafove podannya danih iz vuzlami dlya kozhnogo z michenih i nemichenih prikladiv Graf mozhna pobuduvati vikoristovuyuchi znannya predmetnoyi oblasti abo shozhist prikladiv dvoma poshirenimi metodami ye z yednuvati kozhnu tochku danih z yiyi k displaystyle k najblizhchimi susidami abo z prikladami na deyakij vidstani ϵ displaystyle epsilon Vagu Wij displaystyle W ij rebra mizh xi displaystyle x i ta xj displaystyle x j vidtak vstanovlyuyut v e xi xj 2ϵ displaystyle e frac x i x j 2 epsilon V sistemi en cej graf sluguye poserednikom dlya mnogovida Do standartnoyi zadachi regulyarizaciyi Tihonova dodayut dodatkovij chlen shobi zabezpechiti gladkist rozv yazku vidnosno mnogovidu u vnutrishnomu prostori zadachi a takozh vidnosno navkolishnogo prostoru vhodu Zadacha minimizaciyi nabuvaye viglyadu argminf H 1l i 1lV f xi yi lA f H2 lI M Mf x 2dp x displaystyle underset f in mathcal H operatorname argmin left frac 1 l displaystyle sum i 1 l V f x i y i lambda A f mathcal H 2 lambda I int mathcal M nabla mathcal M f x 2 dp x right de H displaystyle mathcal H gilbertiv prostir iz vidtvoryuvalnim yadrom a M displaystyle mathcal M mnogovid na yakomu lezhat dani Parametri regulyarizaciyi lA displaystyle lambda A ta lI displaystyle lambda I kontrolyuyut gladkist u navkolishnomu angl ambient ta vnutrishnomu angl intrinsic prostorah vidpovidno Cej graf vikoristovuyut dlya nablizhennya chlena vnutrishnoyi regulyarizaciyi Viznachivshi matricyu Laplasa Kirhgofa L D W displaystyle L D W de Dii j 1l uWij displaystyle D ii sum j 1 l u W ij a f displaystyle mathbf f ce vektor f x1 f xl u displaystyle f x 1 dots f x l u mi otrimuyemo fTLf i j 1l uWij fi fj 2 M Mf x 2dp x displaystyle mathbf f T L mathbf f displaystyle sum i j 1 l u W ij f i f j 2 approx int mathcal M nabla mathcal M f x 2 dp x Grafovij pidhid do laplasovoyi regulyarizaciyi pov yazuyut iz metodom skinchennih riznic proyasniti dzherelo Matricyu Laplasa Kirhgofa takozh mozhlivo vikoristovuvati dlya rozshirennya algoritmiv kerovanogo navchannya en ta opornovektornih mashin OVM do napivkerovanih versij laplasovih regulyarizovanih najmenshih kvadrativ angl Laplacian regularized least squares ta laplasovih OVM angl Laplacian SVM Evristichni pidhodi Deyaki metodi napivkerovanogo navchannya za svoyeyu suttyu ne oriyentovani na navchannya yak iz nemichenih tak i z michenih danih a natomist vikoristovuyut nemicheni dani v ramkah kerovanogo navchannya Napriklad micheni ta nemicheni prikladi x1 xl u displaystyle x 1 dots x l u na nekerovanomu pershomu kroci mozhut informuvati vibir podannya miri vidstani abo yadra dlya danih Potim prodovzhuyetsya kerovane navchannya lishe z michenih prikladiv U comu klyuchi deyaki metodi navchayutsya nizkovimirnogo podannya vikoristovuyuchi kerovani dani a potim zastosovuyut do navchenogo podannya abo nizkogustinne rozdilennya abo grafovi metodi Iterativne vdoskonalennya podannya z nastupnim vikonannyam napivkerovanogo navchannya na comu podanni mozhut she dali pidvishuvati produktivnist Samotrenuvannya angl self training ce obgortkovij metod napivkerovanogo navchannya Spershu trenuyut algoritm kerovanogo navchannya lishe na michenih danih Vidtak cej klasifikator zastosovuyut do nemichenih danih dlya porodzhennya bilshoyi kilkosti michenih prikladiv yak danih vhodu dlya algoritmu kerovanogo navchannya Zazvichaj na kozhnomu kroci dodayut lishe ti mitki v yakih klasifikator najupevnenishij en angl co training ce rozshirennya samotrenuvannya v yakomu dekilka klasifikatoriv trenuyutsya na riznih v ideali neperetinnih naborah oznak i porodzhuyut micheni prikladi odin dlya odnogo U lyudskomu piznanniReakciyi lyudej na formalni zadachi napivkerovanogo navchannya dali minlivi visnovki shodo stupenyu vplivu nemichenih danih Prirodnishi zadachi navchannya takozh mozhna rozglyadati yak zrazki napivkerovanogo navchannya Znachna chastina lyudskogo en peredbachaye neveliku kilkist pryamih instrukcij yak to poznachennya ob yektiv batkami u ditinstvi u poyednanni z velikoyu kilkistyu nemichenogo dosvidu yak to sposterezhennya za ob yektami bez yihnih nazv chi kilkostej abo prinajmni bez zvorotnogo zv yazku Lyudski nemovlyata chutlivi do strukturi nemichenih prirodnih kategorij takih yak zobrazhennya sobak chi kotiv ta cholovichih chi zhinochih oblich Nemovlyata ta diti vrahovuyut ne lishe nemicheni prikladi ale j proces vibirannya zrazkiv u rezultati yakogo vinikayut micheni prikladi Div takozh en PrimitkiIlyushik T S 2021 Klasifikaciya gistologichnih zobrazhen raku prostati PDF Magisterska disertaciya ukr Kiyiv NTUU KPI im Igorya Sikorskogo Procitovano 16 serpnya 2023 Klejn O M 2023 Metod ta zasobi viyavlennya anomalij v kiberfizichnih sistemah komp yuternogo zoru Kvalifikacijna robota magistra ukr Hmelnickij Hmelnickij nacionalnij universitet Procitovano 16 serpnya 2023 Sinyeglazov Viktor Chumachenko Olena 2022 Bidyuk P I Shugalej L P red Metodi ta tehnologiyi napivkerovanogo navchannya Kurs lekcij PDF ukr Kiyiv NTUU KPI im Igorya Sikorskogo Kropivnicka V B Magas D M 30 kvitnya 2023 Napivkerovane mashinne navchannya dlya viyavlennya nespravnostej naftogazoprovodiv Modern engineering and innovative technologies ukr 1 18 33 36 doi 10 30890 2567 5273 2023 26 01 010 Semi Supervised Learning Literature Survey Page 5 2007 Chapelle Scholkopf ta Zien 2006 Stevens Kenneth N 1998 Acoustic phonetics angl Cambridge Mass MIT Press ISBN 0 585 08720 2 OCLC 42856189 Scudder H July 1965 Probability of error of some adaptive pattern recognition machines IEEE Transactions on Information Theory angl 11 3 363 371 doi 10 1109 TIT 1965 1053799 ISSN 1557 9654 Vapnik V N Chervonenkis A Ya 1974 Teorya raspoznavaniya obrazov ros Moskva Nauka procitovana v Chapelle Scholkopf ta Zien 2006 s 3 Ratsaby J Venkatesh S Learning from a mixture of labeled and unlabeled examples with parametric side information PDF angl u Proceedings of the eighth annual conference on Computational learning theory COLT 95 angl New York New York USA ACM Press 1995 s 412 417 doi 10 1145 225298 225348 ISBN 0 89791 723 5 S2CID 17561403 Procitovana v Chapelle Scholkopf ta Zien 2006 s 4 Fabio Cozman Ira Cohen 22 veresnya 2006 Risks of Semi Supervised Learning How Unlabeled Data Can Degrade Performance of Generative Classifiers Semi Supervised Learning angl The MIT Press s 56 72 doi 10 7551 mitpress 9780262033589 003 0004 ISBN 978 0 262 03358 9 U Chapelle Scholkopf ta Zien 2006 Zhu Xiaojin Semi Supervised Learning University of Wisconsin Madison M Belkin P Niyogi 2004 Semi supervised Learning on Riemannian Manifolds Machine Learning angl 56 Special Issue on Clustering 209 239 doi 10 1023 b mach 0000033120 25363 1e M Belkin P Niyogi V Sindhwani On Manifold Regularization AISTATS 2005 angl Iscen Ahmet Tolias Giorgos Avrithis Yannis Chum Ondrej 2019 Label Propagation for Deep Semi Supervised Learning 2019 IEEE CVF Conference on Computer Vision and Pattern Recognition CVPR angl s 5065 5074 arXiv 1904 04717 doi 10 1109 CVPR 2019 00521 ISBN 978 1 7281 3293 8 S2CID 104291869 Procitovano 26 bereznya 2021 Burkhart Michael C Shan Kyle 2020 Deep Low Density Separation for Semi supervised Classification International Conference on Computational Science ICCS Lecture Notes in Computer Science angl 12139 297 311 doi 10 1007 978 3 030 50420 5 22 ISBN 978 3 030 50419 9 Triguero Isaac Garcia Salvador Herrera Francisco 26 listopada 2013 Self labeled techniques for semi supervised learning taxonomy software and empirical study Knowledge and Information Systems angl 42 2 245 284 doi 10 1007 s10115 013 0706 y ISSN 0219 1377 S2CID 1955810 Fazakis Nikos Karlos Stamatis Kotsiantis Sotiris Sgarbas Kyriakos 29 grudnya 2015 Self Trained LMT for Semisupervised Learning Computational Intelligence and Neuroscience angl 2016 3057481 doi 10 1155 2016 3057481 PMC 4709606 PMID 26839531 Didaci Luca Fumera Giorgio Roli Fabio 7 listopada 2012 Gimel farb Georgy Hancock Edwin Imiya Atsushi Kuijper Arjan Kudo Mineichi Omachi Shinichiro Windeatt Terry Yamada Keiji red Analysis of Co training Algorithm with Very Small Training Sets Lecture Notes in Computer Science angl Springer Berlin Heidelberg s 719 726 doi 10 1007 978 3 642 34166 3 79 ISBN 9783642341656 S2CID 46063225 Zhu Xiaojin 2009 Introduction to semi supervised learning angl Goldberg A B Andrew B San Rafael Calif Morgan amp Claypool Publishers ISBN 978 1 59829 548 1 OCLC 428541480 Younger B A Fearing D D 1999 Parsing Items into Separate Categories Developmental Change in Infant Categorization Child Development angl 70 2 291 303 doi 10 1111 1467 8624 00022 Xu F amp Tenenbaum J B 2007 Sensitivity to sampling in Bayesian word learning Developmental Science angl 10 3 288 297 CiteSeerX 10 1 1 141 7505 doi 10 1111 j 1467 7687 2007 00590 x PMID 17444970 Gweon H Tenenbaum J B and Schulz L E 2010 Infants consider both the sample and the sampling process in inductive generalization Proc Natl Acad Sci U S A angl 107 20 9066 71 Bibcode 2010PNAS 107 9066G doi 10 1073 pnas 1003095107 PMC 2889113 PMID 20435914 DzherelaChapelle Olivier Scholkopf Bernhard Zien Alexander 2006 Semi supervised learning angl Cambridge Mass MIT Press ISBN 978 0 262 03358 9 PosilannyaManifold Regularization Vilno dostupne vtilennya v MATLAB grafovih napivkerovanih algoritmiv laplasovih opornovektornih mashin ta laplasovih regulyarizovanih najmenshih kvadrativ KEEL programnij instrument dlya ocinyuvannya evolyucijnih algoritmiv dlya zadach dobuvannya danih regresiyi klasifikuvannya klasteruvannya dobuvannya shabloniv tosho Modul KEEL dlya napivkerovanogo navchannya Programne zabezpechennya napivkerovanogo navchannya Napivkerovane navchannya dokumentaciya scikit learn Napivkerovane navchannya v scikit learn