Передава́льне навча́ння (ПН, англ. transfer learning, TL) — це дослідницька задача в машинному навчанні (МН), зосереджена на зберіганні знань, отриманих під час розв'язання однієї задачі, та застосуванні їх до іншої, але пов'язаної задачі. Наприклад, знання, отримані під час навчання (розпізнаванню) легкових автомобілів, може бути застосовано при намаганні розпізнавати вантажівки. Цей напрямок досліджень має певне відношення до тривалої історії психологічної літератури з передавання навчання, хоча практичні зв'язки між цими двома напрямами є обмеженими. З практичної точки зору, повторне використання або передавання інформації з раніше навчених задач для навчання нових задач має потенціал значно покращувати ефективність вибірки агента навчання з підкріпленням.
Історія
Цей розділ наділяє певні ідеї, події чи суперечливі твердження . (квітень 2021) |
1976 року Стево Бозіновський та Анте Фулгосі опублікували працю, в якій чітко розглянуто питання передавального навчання в тренуванні нейронних мереж. У цій праці наведено математичну та геометричну модель передавального навчання. 1981 року було зроблено звіт про застосування передавального навчання в тренуванні нейронної мережі на наборі зображень, що представляють літери комп'ютерних терміналів. Було експериментально продемонстровано як позитивне, так і негативне передавальне навчання.
1993 року Лоріен Пратт опублікував статтю про передавання в машиннім навчанні, сформулювавши алгоритм передавання на основі розрізнювальності (англ. discriminability-based transfer, DBT).
1997 року Пратт та Себастьян Трун стали запрошеними редакторами спеціального випуску журналу «Machine Learning», присвяченого передавальному навчанню, а до 1998 року ця галузь розвинулася до включення [en] а також більш формального аналізу теоретичних основ. «Вчитися вчитися» під редакцією Труна та Пратта — це огляд цієї теми 1998 року.
Передавальне навчання знайшло застосування також і в когнітивістиці, а Пратта також запрошували 1996 року редагувати випуск журналу «Connection Science» про повторне використання нейронних мереж через передавання.
Ендрю Ин у своєму семінарі на NIPS 2016 сказав, щоби підкреслити важливість ПН, що воно буде наступним рушієм комерційного успіху МН після керованого навчання.
Визначення
Визначення передавального навчання задають у термінах областей визначення та задач. Область визначення складається з простору ознак та відособленого розподілу ймовірності , де . Для заданої конкретної області визначення задача складається з двох складових: простору міток та цільової передбачувальної функції . Функцію використовують для передбачування відповідної мітки нового примірника . Цієї задачі, позначуваної через , навчаються з тренувальних даних, що складаються з пар , де , а .
Для заданої первинної області визначення та задачі навчання , цільової області визначення та задачі навчання , де , або , передавальне навчання має на меті допомогти покращити навчання цільової передбачувальної функції в , використовуючи знання в і .
Застосування
Існують доступні алгоритми для передавального навчання в [en] та баєсових мережах. Передавальне навчання також застосовували до виявляння підтипів раку, [en], [en], класифікації текстів, розпізнавання цифр, медичного унаочнювання та фільтрування спаму.
2020 року було виявлено, що, завдяки їхній подібній фізичній природі, є можливим передавальне навчання між електроміографічними (ЕМГ) сигналами від м'язів при класифікуванні поведінки електроенцефалографічних (ЕЕГ) мозкових хвиль з області [en] до області розпізнавання психічного стану. Було також зазначено, що цей взаємозв'язок працював і в зворотному напрямку, показуючи, що ЕЕГ також може подібним чином бути додатково використано для класифікування ЕМГ. Ці експерименти відзначали, що точність нейронних мереж та згорткових нейронних мереж покращилася завдяки передавальному навчанню як у першу епоху (до будь-якого тренування, тобто порівняно зі стандартним випадковим розподілом ваг), так і в асимптоті (у кінці процесу навчання). Тобто алгоритми вдосконалюються завдяки впливові іншої області визначення. Більше того, для досягнення кращої продуктивності кінцевий користувач попередньо натренованої моделі може змінювати структуру повноз'єднаних шарів.
Див. також
Примітки
- West, Jeremy; Ventura, Dan; Warnick, Sean (2007). . Brigham Young University, College of Physical and Mathematical Sciences. Архів оригіналу за 1 серпня 2007. Процитовано 5 серпня 2007. (англ.)
- Ткаченко, Д. А. (2018). Розподілене глибинне навчання для інтелектуального аналізу відео (PDF) (магістерська дисертація). НТУУ «КПІ ім. Ігоря Сікорського». Процитовано 4 квітня 2021.
- George Karimpanal, Thommen; Bouffanais, Roland (2019). Self-organizing maps for storage and transfer of knowledge in reinforcement learning. Adaptive Behavior. 27 (2): 111—126. arXiv:1811.08318. doi:10.1177/1059712318818568. ISSN 1059-7123. (англ.)
- Stevo. Bozinovski and Ante Fulgosi (1976). "The influence of pattern similarity and transfer learning upon the training of a base perceptron B2." (original in Croatian) Proceedings of Symposium Informatica 3-121-5, Bled. (англ.)
- Stevo Bozinovski (2020) "Reminder of the first paper on transfer learning in neural networks, 1976". Informatica 44: 291–302. (англ.)
- S. Bozinovski (1981). "Teaching space: A representation concept for adaptive pattern classification." COINS Technical Report, the University of Massachusetts at Amherst, No 81-28 [available online: UM-CS-1981-028.pdf] (англ.)
- Pratt, L. Y. (1993). Discriminability-based transfer between neural networks. NIPS Conference: Advances in Neural Information Processing Systems 5. Morgan Kaufmann Publishers. с. 204—211. (англ.)
- Pratt, L. Y.; Thrun, Sebastian (July 1997). Machine Learning - Special Issue on Inductive Transfer. link.springer.com. Springer. Процитовано 10 серпня 2017. (англ.)
- Caruana, R., "Multitask Learning", pp. 95-134 in Thrun та Pratt, 2012 (англ.)
- Baxter, J., "Theoretical Models of Learning to Learn", pp. 71-95 Thrun та Pratt, 2012 (англ.)
- Thrun та Pratt, 2012.
- Pratt, L. (1996). Special Issue: Reuse of Neural Networks through Transfer. Connection Science. 8 (2). Процитовано 10 серпня 2017. (англ.)
- NIPS 2016 tutorial: "Nuts and bolts of building AI applications using Deep Learning" by Andrew Ng (англ.), оригіналу за 13 січня 2020, процитовано 28 грудня 2019 (англ.)
- NIPS 2016 Schedule. nips.cc. Процитовано 28 грудня 2019. (англ.)
- Nuts and bolts of building AI applications using Deep Learning, slides (англ.)
- Lin, Yuan-Pin; Jung, Tzyy-Ping (27 червня 2017). Improving EEG-Based Emotion Classification Using Conditional Transfer Learning. Frontiers in Human Neuroscience. 11: 334. doi:10.3389/fnhum.2017.00334. PMC 5486154. PMID 28701938.
{{}}
: Обслуговування CS1: Сторінки із непозначеним DOI з безкоштовним доступом () (англ.) Матеріал було скопійовано з цього джерела, що є доступним за ліцензією Creative Commons Attribution 4.0 International License. (англ.) - Mihalkova, Lilyana; Huynh, Tuyen; Mooney, Raymond J. (July 2007), Mapping and Revising Markov Logic Networks for Transfer (PDF), Learning Proceedings of the 22nd AAAI Conference on Artificial Intelligence (AAAI-2007), Vancouver, BC, процитовано 5 серпня 2007 (англ.)
- Niculescu-Mizil, Alexandru; Caruana, Rich (March 21–24, 2007), (PDF), Proceedings of the Eleventh International Conference on Artificial Intelligence and Statistics (AISTATS 2007), архів оригіналу (PDF) за 20 червня 2010, процитовано 5 серпня 2007 (англ.)
- Hajiramezanali, E. & Dadaneh, S. Z. & Karbalayghareh, A. & Zhou, Z. & Qian, X. Bayesian multi-domain learning for cancer subtype discovery from next-generation sequencing count data. 32nd Conference on Neural Information Processing Systems (NeurIPS 2018), Montréal, Canada. arXiv:1810.09433 (англ.)
- Arief-Ang, I.B.; Salim, F.D.; Hamilton, M. (8 листопада 2017). DA-HOC: semi-supervised domain adaptation for room occupancy prediction using CO2 sensor data. 4th ACM International Conference on Systems for Energy-Efficient Built Environments (BuildSys). Delft, Netherlands. с. 1—10. doi:10.1145/3137133.3137146. ISBN . (англ.)
- Arief-Ang, I.B.; Hamilton, M.; Salim, F.D. (1 грудня 2018). A Scalable Room Occupancy Prediction with Transferable Time Series Decomposition of CO2 Sensor Data. ACM Transactions on Sensor Networks. 14 (3–4): 21:1–21:28. doi:10.1145/3217214. (англ.)
- Banerjee, Bikramjit, and Peter Stone. "General Game Learning Using Knowledge Transfer [ 2021-05-01 у Wayback Machine.]." IJCAI. 2007. (англ.)
- Do, Chuong B.; Ng, Andrew Y. (2005). Transfer learning for text classification. Neural Information Processing Systems Foundation, NIPS*2005 (PDF). Процитовано 5 серпня 2007. (англ.)
- Rajat, Raina; Ng, Andrew Y.; Koller, Daphne (2006). Constructing Informative Priors using Transfer Learning. Twenty-third International Conference on Machine Learning (PDF). Процитовано 5 серпня 2007. (англ.)
- Maitra, D. S.; Bhattacharya, U.; Parui, S. K. (August 2015). CNN based common approach to handwritten character recognition of multiple scripts. 2015 13th International Conference on Document Analysis and Recognition (ICDAR): 1021—1025. doi:10.1109/ICDAR.2015.7333916. ISBN . (англ.)
- Bickel, Steffen (2006). ECML-PKDD Discovery Challenge 2006 Overview. ECML-PKDD Discovery Challenge Workshop (PDF). Процитовано 5 серпня 2007. (англ.)
- Bird, Jordan J.; Kobylarz, Jhonatan; Faria, Diego R.; Ekart, Aniko; Ribeiro, Eduardo P. (2020). Cross-Domain MLP and CNN Transfer Learning for Biological Signal Processing: EEG and EMG. IEEE Access. Institute of Electrical and Electronics Engineers (IEEE). 8: 54789—54801. doi:10.1109/access.2020.2979074. ISSN 2169-3536. (англ.)
- Maitra, Durjoy Sen; Bhattacharya, Ujjwal; Parui, Swapan K. (August 2015). CNN based common approach to handwritten character recognition of multiple scripts. 2015 13th International Conference on Document Analysis and Recognition (ICDAR): 1021—1025. doi:10.1109/ICDAR.2015.7333916. (англ.)
- Kabir, H. M., Abdar, M., Jalali, S. M. J., Khosravi, A., Atiya, A. F., Nahavandi, S., & Srinivasan, D. (2020). Spinalnet: Deep neural network with gradual input. arXiv preprint arXiv:2007.03347. (англ.)
Джерела
- Thrun, Sebastian; Pratt, Lorien (6 грудня 2012). Learning to Learn. Springer Science & Business Media. ISBN . (англ.)
Вікіпедія, Українська, Україна, книга, книги, бібліотека, стаття, читати, завантажити, безкоштовно, безкоштовно завантажити, mp3, відео, mp4, 3gp, jpg, jpeg, gif, png, малюнок, музика, пісня, фільм, книга, гра, ігри, мобільний, телефон, android, ios, apple, мобільний телефон, samsung, iphone, xiomi, xiaomi, redmi, honor, oppo, nokia, sonya, mi, ПК, web, Інтернет
Peredava lne navcha nnya PN angl transfer learning TL ce doslidnicka zadacha v mashinnomu navchanni MN zoseredzhena na zberiganni znan otrimanih pid chas rozv yazannya odniyeyi zadachi ta zastosuvanni yih do inshoyi ale pov yazanoyi zadachi Napriklad znannya otrimani pid chas navchannya rozpiznavannyu legkovih avtomobiliv mozhe buti zastosovano pri namaganni rozpiznavati vantazhivki Cej napryamok doslidzhen maye pevne vidnoshennya do trivaloyi istoriyi psihologichnoyi literaturi z peredavannya navchannya hocha praktichni zv yazki mizh cimi dvoma napryamami ye obmezhenimi Z praktichnoyi tochki zoru povtorne vikoristannya abo peredavannya informaciyi z ranishe navchenih zadach dlya navchannya novih zadach maye potencial znachno pokrashuvati efektivnist vibirki agenta navchannya z pidkriplennyam IstoriyaCej rozdil nadilyaye pevni ideyi podiyi chi superechlivi tverdzhennya nadmirnoyu nevipravdanoyu vagoyu Bud laska dopomozhit udoskonaliti cej rozdil perepisavshi jogo u zvazhenij sposib sho visvitlyuye rizni tochki zoru Podrobici mozhna znajti na storinci obgovorennya kviten 2021 1976 roku Stevo Bozinovskij ta Ante Fulgosi opublikuvali pracyu v yakij chitko rozglyanuto pitannya peredavalnogo navchannya v trenuvanni nejronnih merezh U cij praci navedeno matematichnu ta geometrichnu model peredavalnogo navchannya 1981 roku bulo zrobleno zvit pro zastosuvannya peredavalnogo navchannya v trenuvanni nejronnoyi merezhi na nabori zobrazhen sho predstavlyayut literi komp yuternih terminaliv Bulo eksperimentalno prodemonstrovano yak pozitivne tak i negativne peredavalne navchannya 1993 roku Lorien Pratt opublikuvav stattyu pro peredavannya v mashinnim navchanni sformulyuvavshi algoritm peredavannya na osnovi rozriznyuvalnosti angl discriminability based transfer DBT 1997 roku Pratt ta Sebastyan Trun stali zaproshenimi redaktorami specialnogo vipusku zhurnalu Machine Learning prisvyachenogo peredavalnomu navchannyu a do 1998 roku cya galuz rozvinulasya do vklyuchennya en a takozh bilsh formalnogo analizu teoretichnih osnov Vchitisya vchitisya pid redakciyeyu Truna ta Pratta ce oglyad ciyeyi temi 1998 roku Peredavalne navchannya znajshlo zastosuvannya takozh i v kognitivistici a Pratta takozh zaproshuvali 1996 roku redaguvati vipusk zhurnalu Connection Science pro povtorne vikoristannya nejronnih merezh cherez peredavannya Endryu In u svoyemu seminari na NIPS 2016 skazav shobi pidkresliti vazhlivist PN sho vono bude nastupnim rushiyem komercijnogo uspihu MN pislya kerovanogo navchannya ViznachennyaViznachennya peredavalnogo navchannya zadayut u terminah oblastej viznachennya ta zadach Oblast viznachennya D displaystyle mathcal D skladayetsya z prostoru oznak X displaystyle mathcal X ta vidosoblenogo rozpodilu jmovirnosti P X displaystyle P X de X x 1 x n X displaystyle X x 1 x n in mathcal X Dlya zadanoyi konkretnoyi oblasti viznachennya D X P X displaystyle mathcal D mathcal X P X zadacha skladayetsya z dvoh skladovih prostoru mitok Y displaystyle mathcal Y ta cilovoyi peredbachuvalnoyi funkciyi f X Y displaystyle f mathcal X rightarrow mathcal Y Funkciyu f displaystyle f vikoristovuyut dlya peredbachuvannya vidpovidnoyi mitki f x displaystyle f x novogo primirnika x displaystyle x Ciyeyi zadachi poznachuvanoyi cherez T Y f x displaystyle mathcal T mathcal Y f x navchayutsya z trenuvalnih danih sho skladayutsya z par x i y i displaystyle x i y i de x i X displaystyle x i in X a y i Y displaystyle y i in mathcal Y Dlya zadanoyi pervinnoyi oblasti viznachennya D S displaystyle mathcal D S ta zadachi navchannya T S displaystyle mathcal T S cilovoyi oblasti viznachennya D T displaystyle mathcal D T ta zadachi navchannya T T displaystyle mathcal T T de D S D T displaystyle mathcal D S neq mathcal D T abo T S T T displaystyle mathcal T S neq mathcal T T peredavalne navchannya maye na meti dopomogti pokrashiti navchannya cilovoyi peredbachuvalnoyi funkciyi f T displaystyle f T cdot v D T displaystyle mathcal D T vikoristovuyuchi znannya v D S displaystyle mathcal D S i T S displaystyle mathcal T S ZastosuvannyaIsnuyut dostupni algoritmi dlya peredavalnogo navchannya v en ta bayesovih merezhah Peredavalne navchannya takozh zastosovuvali do viyavlyannya pidtipiv raku en en klasifikaciyi tekstiv rozpiznavannya cifr medichnogo unaochnyuvannya ta filtruvannya spamu 2020 roku bulo viyavleno sho zavdyaki yihnij podibnij fizichnij prirodi ye mozhlivim peredavalne navchannya mizh elektromiografichnimi EMG signalami vid m yaziv pri klasifikuvanni povedinki elektroencefalografichnih EEG mozkovih hvil z oblasti en do oblasti rozpiznavannya psihichnogo stanu Bulo takozh zaznacheno sho cej vzayemozv yazok pracyuvav i v zvorotnomu napryamku pokazuyuchi sho EEG takozh mozhe podibnim chinom buti dodatkovo vikoristano dlya klasifikuvannya EMG Ci eksperimenti vidznachali sho tochnist nejronnih merezh ta zgortkovih nejronnih merezh pokrashilasya zavdyaki peredavalnomu navchannyu yak u pershu epohu do bud yakogo trenuvannya tobto porivnyano zi standartnim vipadkovim rozpodilom vag tak i v asimptoti u kinci procesu navchannya Tobto algoritmi vdoskonalyuyutsya zavdyaki vplivovi inshoyi oblasti viznachennya Bilshe togo dlya dosyagnennya krashoyi produktivnosti kincevij koristuvach poperedno natrenovanoyi modeli mozhe zminyuvati strukturu povnoz yednanih shariv Div takozhShreshuvannya genetichnij algoritm Pristosovuvannya oblasti viznachennya en en en PrimitkiWest Jeremy Ventura Dan Warnick Sean 2007 Brigham Young University College of Physical and Mathematical Sciences Arhiv originalu za 1 serpnya 2007 Procitovano 5 serpnya 2007 angl Tkachenko D A 2018 Rozpodilene glibinne navchannya dlya intelektualnogo analizu video PDF magisterska disertaciya NTUU KPI im Igorya Sikorskogo Procitovano 4 kvitnya 2021 George Karimpanal Thommen Bouffanais Roland 2019 Self organizing maps for storage and transfer of knowledge in reinforcement learning Adaptive Behavior 27 2 111 126 arXiv 1811 08318 doi 10 1177 1059712318818568 ISSN 1059 7123 angl Stevo Bozinovski and Ante Fulgosi 1976 The influence of pattern similarity and transfer learning upon the training of a base perceptron B2 original in Croatian Proceedings of Symposium Informatica 3 121 5 Bled angl Stevo Bozinovski 2020 Reminder of the first paper on transfer learning in neural networks 1976 Informatica 44 291 302 angl S Bozinovski 1981 Teaching space A representation concept for adaptive pattern classification COINS Technical Report the University of Massachusetts at Amherst No 81 28 available online UM CS 1981 028 pdf angl Pratt L Y 1993 Discriminability based transfer between neural networks NIPS Conference Advances in Neural Information Processing Systems 5 Morgan Kaufmann Publishers s 204 211 angl Pratt L Y Thrun Sebastian July 1997 Machine Learning Special Issue on Inductive Transfer link springer com Springer Procitovano 10 serpnya 2017 angl Caruana R Multitask Learning pp 95 134 in Thrun ta Pratt 2012 angl Baxter J Theoretical Models of Learning to Learn pp 71 95 Thrun ta Pratt 2012 angl Thrun ta Pratt 2012 Pratt L 1996 Special Issue Reuse of Neural Networks through Transfer Connection Science 8 2 Procitovano 10 serpnya 2017 angl NIPS 2016 tutorial Nuts and bolts of building AI applications using Deep Learning by Andrew Ng angl originalu za 13 sichnya 2020 procitovano 28 grudnya 2019 angl NIPS 2016 Schedule nips cc Procitovano 28 grudnya 2019 angl Nuts and bolts of building AI applications using Deep Learning slides angl Lin Yuan Pin Jung Tzyy Ping 27 chervnya 2017 Improving EEG Based Emotion Classification Using Conditional Transfer Learning Frontiers in Human Neuroscience 11 334 doi 10 3389 fnhum 2017 00334 PMC 5486154 PMID 28701938 a href wiki D0 A8 D0 B0 D0 B1 D0 BB D0 BE D0 BD Cite journal title Shablon Cite journal cite journal a Obslugovuvannya CS1 Storinki iz nepoznachenim DOI z bezkoshtovnim dostupom posilannya angl Material bulo skopijovano z cogo dzherela sho ye dostupnim za licenziyeyu Creative Commons Attribution 4 0 International License angl Mihalkova Lilyana Huynh Tuyen Mooney Raymond J July 2007 Mapping and Revising Markov Logic Networks for Transfer PDF Learning Proceedings of the 22nd AAAI Conference on Artificial Intelligence AAAI 2007 Vancouver BC procitovano 5 serpnya 2007 angl Niculescu Mizil Alexandru Caruana Rich March 21 24 2007 PDF Proceedings of the Eleventh International Conference on Artificial Intelligence and Statistics AISTATS 2007 arhiv originalu PDF za 20 chervnya 2010 procitovano 5 serpnya 2007 angl Hajiramezanali E amp Dadaneh S Z amp Karbalayghareh A amp Zhou Z amp Qian X Bayesian multi domain learning for cancer subtype discovery from next generation sequencing count data 32nd Conference on Neural Information Processing Systems NeurIPS 2018 Montreal Canada arXiv 1810 09433 angl Arief Ang I B Salim F D Hamilton M 8 listopada 2017 DA HOC semi supervised domain adaptation for room occupancy prediction using CO2 sensor data 4th ACM International Conference on Systems for Energy Efficient Built Environments BuildSys Delft Netherlands s 1 10 doi 10 1145 3137133 3137146 ISBN 978 1 4503 5544 5 angl Arief Ang I B Hamilton M Salim F D 1 grudnya 2018 A Scalable Room Occupancy Prediction with Transferable Time Series Decomposition of CO2 Sensor Data ACM Transactions on Sensor Networks 14 3 4 21 1 21 28 doi 10 1145 3217214 angl Banerjee Bikramjit and Peter Stone General Game Learning Using Knowledge Transfer 2021 05 01 u Wayback Machine IJCAI 2007 angl Do Chuong B Ng Andrew Y 2005 Transfer learning for text classification Neural Information Processing Systems Foundation NIPS 2005 PDF Procitovano 5 serpnya 2007 angl Rajat Raina Ng Andrew Y Koller Daphne 2006 Constructing Informative Priors using Transfer Learning Twenty third International Conference on Machine Learning PDF Procitovano 5 serpnya 2007 angl Maitra D S Bhattacharya U Parui S K August 2015 CNN based common approach to handwritten character recognition of multiple scripts 2015 13th International Conference on Document Analysis and Recognition ICDAR 1021 1025 doi 10 1109 ICDAR 2015 7333916 ISBN 978 1 4799 1805 8 angl Bickel Steffen 2006 ECML PKDD Discovery Challenge 2006 Overview ECML PKDD Discovery Challenge Workshop PDF Procitovano 5 serpnya 2007 angl Bird Jordan J Kobylarz Jhonatan Faria Diego R Ekart Aniko Ribeiro Eduardo P 2020 Cross Domain MLP and CNN Transfer Learning for Biological Signal Processing EEG and EMG IEEE Access Institute of Electrical and Electronics Engineers IEEE 8 54789 54801 doi 10 1109 access 2020 2979074 ISSN 2169 3536 angl Maitra Durjoy Sen Bhattacharya Ujjwal Parui Swapan K August 2015 CNN based common approach to handwritten character recognition of multiple scripts 2015 13th International Conference on Document Analysis and Recognition ICDAR 1021 1025 doi 10 1109 ICDAR 2015 7333916 angl Kabir H M Abdar M Jalali S M J Khosravi A Atiya A F Nahavandi S amp Srinivasan D 2020 Spinalnet Deep neural network with gradual input arXiv preprint arXiv 2007 03347 angl DzherelaThrun Sebastian Pratt Lorien 6 grudnya 2012 Learning to Learn Springer Science amp Business Media ISBN 978 1 4615 5529 2 angl