Бутстрепова агрегація або беггінг (англ. Bootstrap aggregating, bagging) — це машинний навчальний груповий мета-алгоритм, створений для покращення стабільності і точності машинних навчальних алгоритмів, які використовують статистичні класифікації і регресії. Він також зменшує неточність, хоча зазвичай застосовується до методів «дерева рішень», але може використовуватися з будь-яким типом методів.
Метод схожий на ансамбль методів однак, замість використання декількох моделей на одних і тих самих даних, кожна модель застосовується до різних вибірок отриманих методом бутстреп.
Опис методу
Наприклад, дано стандартний навчальний набір D розміром n. Даний мета-алгоритм сукупності створює нові навчальні зразки , відбираючи однорідно або із заміною зразки з набору D , кожен з яких розміром nʹ. Деякі спостереження можуть повторюватися в кожному . Якщо n′=n, тоді для великого n набір очікувано матиме дріб (1 — 1/e) (≈63.2 %) єдиних прикладів D, а всі інші будуть дублюватися. Такий вид відбору відомий як бутстреп відбір.
Сумування приводить до «покращення нестійких процедур» (Брейман, 1996), які включають, наприклад, штучні нервові системи, класифікаційні і регресивні дерева та відбір підгрупи в лінійній регресії (Брейман, 1996). Цікаве застосування алгоритму показано тут. Алгоритм трішки понижує значення стійких методів таких як К-найближчі сусіди (Брейман, 1996).
Приклад: Озон
Щоб проілюструвати основні принципи бутстрепу, нижче показано аналіз відношення між озоном і температурою (дані з Rousseeuw and Leroy (1986), доступно в класичних наборах даних, аналіз робиться в R (мова програмування).
Взаємозв'язок між озоном і температурою в цьому прикладі є очевидно нелінійним, що видно на розсіяному графіку. Щоб описати математично це відношення застосовують LOESS рівні частинки. Замість того, щоб побудувати одну точку з повним набором даних, зразу намалювали 100 зразків за аналогією. Кожен зразок відрізняється від початкового набору даних, але він схожий за розподілом і мінливістю. Прогноз був зроблений на основі 100 груп. Перші 10 прогнозованих зразків є сірими лініями на графіку, які є дуже гнучкими.
Беручи середнє число із 100 зразків, кожний з них встановлює підгрупу початкових даних, ми підходимо до одного сукупного прогнозованого — це червона лінія на графіку:
Сукупність найближчих сусідніх класифікаторів
Похибка одного найближчого сусіднього класифікатора є вдвічі більшою за похибку баєсового класифікатора. За допомогою уважного вибору розміру зразків сукупність сумування цих зразків може привести до помітного покращення 1NN класифікатора. Беручи велику кількість зразків розміром , супутній найближчий класифікатор буде послідовним, забезпечуючи та відходячи від норми, але як відібраний розмір .
Під безконечною симуляцією сукупний найближчий сусідній класифікатор може розглядатися як масовий найближчий сусідній класифікатор. Допускаємо, що характерний простір є вимірним і позначається , сукупний найближчий класифікатор базується на навчальному наборі розміром та зі зразком розміром . У безконечному відборі зразків за певних регулярних умов на групових розподілах крайня похибка має наступну формулу
для деяких констант and . Оптимальний вибір nʹ, що збалансовує два терміни, є у формулі для деякої константи .
Історія
Бутстрепову агрегацію запропонував 1944 року Лео Брейман для покращення класифікації випадково утворених наборів даних. See Breiman, 1994. Technical Report No. 421.
Див. також
- Підсилювання (машинне навчання)
- Статистичний бутстреп
- Перехресне затверджування
- Random forest
- (attribute bagging)
Примітки
- Вербівський Д. С., Карплюк С. О., Фонарюк О. В., Сікора Я. Б. Бустінг і беггінг як методи формування ансамблей моделей // Actual trends of modern scientific research. Abstracts of the 7th International scientific and practical conference.. — Житомирський державний університет імені Івана Франка, . — С. 163-169.
- . www.oreilly.com (англ.). Архів оригіналу за 21 травня 2021. Процитовано 21 травня 2021.
- Sahu, A., Runger, G., Apley, D., Image denoising with a multi-phase kernel principal component approach and an ensemble version, IEEE Applied Imagery Pattern Recognition Workshop, pp.1-7, 2011.
- Shinde, Amit, Anshuman Sahu, Daniel Apley, and George Runger. «Preimages for Variation Patterns from Kernel PCA and Bagging.» IIE Transactions, Vol.46, Iss.5, 2014
- Castelli, Vittorio. (PDF). columbia.edu. Columbia University. Архів оригіналу (PDF) за 5 вересня 2015. Процитовано 25 квітня 2015.
- Samworth R. J. (2012). Optimal weighted nearest neighbour classifiers. . 40 (5): 2733—2763. doi:10.1214/12-AOS1049.
Посилання
- (1996). Bagging predictors. Machine Learning. 24 (2): 123—140. doi:10.1007/BF00058655. (CiteSeerX): 10.1.1.121.7654.
- Alfaro, E., Gámez, M. and García, N. (2012). adabag: An R package for classification with AdaBoost.M1, AdaBoost-SAMME and Bagging.
Вікіпедія, Українська, Україна, книга, книги, бібліотека, стаття, читати, завантажити, безкоштовно, безкоштовно завантажити, mp3, відео, mp4, 3gp, jpg, jpeg, gif, png, малюнок, музика, пісня, фільм, книга, гра, ігри, мобільний, телефон, android, ios, apple, мобільний телефон, samsung, iphone, xiomi, xiaomi, redmi, honor, oppo, nokia, sonya, mi, ПК, web, Інтернет
Butstrepova agregaciya abo begging angl Bootstrap aggregating bagging ce mashinnij navchalnij grupovij meta algoritm stvorenij dlya pokrashennya stabilnosti i tochnosti mashinnih navchalnih algoritmiv yaki vikoristovuyut statistichni klasifikaciyi i regresiyi Vin takozh zmenshuye netochnist hocha zazvichaj zastosovuyetsya do metodiv dereva rishen ale mozhe vikoristovuvatisya z bud yakim tipom metodiv Metod shozhij na ansambl metodiv odnak zamist vikoristannya dekilkoh modelej na odnih i tih samih danih kozhna model zastosovuyetsya do riznih vibirok otrimanih metodom butstrep Opis metoduNapriklad dano standartnij navchalnij nabir D rozmirom n Danij meta algoritm sukupnosti stvoryuye novi navchalni zrazki D i displaystyle D i vidbirayuchi odnoridno abo iz zaminoyu zrazki z naboru D kozhen z yakih rozmirom nʹ Deyaki sposterezhennya mozhut povtoryuvatisya v kozhnomu D i displaystyle D i Yaksho n n todi dlya velikogo n nabir D i displaystyle D i ochikuvano matime drib 1 1 e 63 2 yedinih prikladiv D a vsi inshi budut dublyuvatisya Takij vid vidboru vidomij yak butstrep vidbir Sumuvannya privodit do pokrashennya nestijkih procedur Brejman 1996 yaki vklyuchayut napriklad shtuchni nervovi sistemi klasifikacijni i regresivni dereva ta vidbir pidgrupi v linijnij regresiyi Brejman 1996 Cikave zastosuvannya algoritmu pokazano tut Algoritm trishki ponizhuye znachennya stijkih metodiv takih yak K najblizhchi susidi Brejman 1996 Priklad OzonShob proilyustruvati osnovni principi butstrepu nizhche pokazano analiz vidnoshennya mizh ozonom i temperaturoyu dani z Rousseeuw and Leroy 1986 dostupno v klasichnih naborah danih analiz robitsya v R mova programuvannya Vzayemozv yazok mizh ozonom i temperaturoyu v comu prikladi ye ochevidno nelinijnim sho vidno na rozsiyanomu grafiku Shob opisati matematichno ce vidnoshennya zastosovuyut LOESS rivni chastinki Zamist togo shob pobuduvati odnu tochku z povnim naborom danih zrazu namalyuvali 100 zrazkiv za analogiyeyu Kozhen zrazok vidriznyayetsya vid pochatkovogo naboru danih ale vin shozhij za rozpodilom i minlivistyu Prognoz buv zroblenij na osnovi 100 grup Pershi 10 prognozovanih zrazkiv ye sirimi liniyami na grafiku yaki ye duzhe gnuchkimi Beruchi serednye chislo iz 100 zrazkiv kozhnij z nih vstanovlyuye pidgrupu pochatkovih danih mi pidhodimo do odnogo sukupnogo prognozovanogo ce chervona liniya na grafiku Sukupnist najblizhchih susidnih klasifikatorivPohibka odnogo najblizhchogo susidnogo klasifikatora ye vdvichi bilshoyu za pohibku bayesovogo klasifikatora Za dopomogoyu uvazhnogo viboru rozmiru zrazkiv sukupnist sumuvannya cih zrazkiv mozhe privesti do pomitnogo pokrashennya 1NN klasifikatora Beruchi veliku kilkist zrazkiv rozmirom n displaystyle n suputnij najblizhchij klasifikator bude poslidovnim zabezpechuyuchi n displaystyle n to infty ta vidhodyachi vid normi ale n n 0 displaystyle n n to 0 yak vidibranij rozmir n displaystyle n to infty Pid bezkonechnoyu simulyaciyeyu sukupnij najblizhchij susidnij klasifikator mozhe rozglyadatisya yak masovij najblizhchij susidnij klasifikator Dopuskayemo sho harakternij prostir ye d displaystyle d vimirnim i poznachayetsya C n n b n n displaystyle C n n bnn sukupnij najblizhchij klasifikator bazuyetsya na navchalnomu nabori rozmirom n displaystyle n ta zi zrazkom rozmirom n displaystyle n U bezkonechnomu vidbori zrazkiv za pevnih regulyarnih umov na grupovih rozpodilah krajnya pohibka maye nastupnu formulu R R C n n b n n R R C B a y e s B 1 n n B 2 1 n 4 d 1 o 1 displaystyle mathcal R mathcal R C n n bnn mathcal R mathcal R C Bayes left B 1 frac n n B 2 frac 1 n 4 d right 1 o 1 dlya deyakih konstant B 1 displaystyle B 1 and B 2 displaystyle B 2 Optimalnij vibir nʹ sho zbalansovuye dva termini ye u formuli n B n d d 4 displaystyle n Bn d d 4 dlya deyakoyi konstanti B displaystyle B IstoriyaButstrepovu agregaciyu zaproponuvav 1944 roku Leo Brejman dlya pokrashennya klasifikaciyi vipadkovo utvorenih naboriv danih See Breiman 1994 Technical Report No 421 Div takozhPidsilyuvannya mashinne navchannya Statistichnij butstrep Perehresne zatverdzhuvannya Random forest attribute bagging PrimitkiVerbivskij D S Karplyuk S O Fonaryuk O V Sikora Ya B Busting i begging yak metodi formuvannya ansamblej modelej Actual trends of modern scientific research Abstracts of the 7th International scientific and practical conference Zhitomirskij derzhavnij universitet imeni Ivana Franka S 163 169 www oreilly com angl Arhiv originalu za 21 travnya 2021 Procitovano 21 travnya 2021 Sahu A Runger G Apley D Image denoising with a multi phase kernel principal component approach and an ensemble version IEEE Applied Imagery Pattern Recognition Workshop pp 1 7 2011 Shinde Amit Anshuman Sahu Daniel Apley and George Runger Preimages for Variation Patterns from Kernel PCA and Bagging IIE Transactions Vol 46 Iss 5 2014 Castelli Vittorio PDF columbia edu Columbia University Arhiv originalu PDF za 5 veresnya 2015 Procitovano 25 kvitnya 2015 Samworth R J 2012 Optimal weighted nearest neighbour classifiers 40 5 2733 2763 doi 10 1214 12 AOS1049 Posilannya 1996 Bagging predictors Machine Learning 24 2 123 140 doi 10 1007 BF00058655 CiteSeerX 10 1 1 121 7654 Alfaro E Gamez M and Garcia N 2012 adabag An R package for classification with AdaBoost M1 AdaBoost SAMME and Bagging