Ансамблеве навчання — техніка машинного навчання, що використовує кілька навчених алгоритмів з метою отримати кращу [en], ніж можна отримати від кожного алгоритму окремо. На відміну від [en] в статистичній механіці, який зазвичай нескінченний, ансамбль моделей у машинному навчанні складається з конкретної скінченної множини альтернативних моделей, але зазвичай дозволяє існувати істотно гнучкішим структурам.
Алгоритми навчання з учителем найчастіше описують як розв'язання задачі пошуку у просторі гіпотез відповідної гіпотези — такої, що дозволяє робити гарні передбачення для конкретної задачі. Але пошук хорошої гіпотези може бути складною задачею. Ансамбль використовує комбінацію кількох гіпотез, сподіваючись, що вона виявиться кращою, ніж окремі гіпотези. Термін «ансамбль» зазвичай резервують для методів, які генерують кілька гіпотез за допомогою одного й того ж базового учня. Ширше поняття системи множинних класифікаторів також використовує кілька гіпотез, але згенерованих не за допомогою одного й того ж учня[].
Обчислення передбачення ансамблю зазвичай потребує більше обчислень, ніж передбачення однієї моделі, отже ансамблі можна вважати способом компенсації поганого алгоритму навчання додатковими обчисленнями. В ансамблі моделей зазвичай використовують швидкі алгоритми, такі як дерева рішень (наприклад, випадкові ліси), хоча повільні алгоритми можуть отримати переваги від ансамблевої техніки.
За аналогією, ансамблеву техніку використовують також у сценаріях навчання без учителя, наприклад, [en] або у виявленні аномалій.
Теорія ансамблювання
Ансамбль є алгоритмом навчання з учителем, оскільки його можна натренувати, а потім використати для здійснення передбачення. Тому тренований ансамбль надає одну гіпотезу. Ця гіпотеза, проте, необов'язково лежить у просторі гіпотез моделей, із яких її побудовано. Таким чином, ансамблі можуть мати більшу гнучкість у функціях, які можуть представляти. Ця гнучкість може, теоретично, швидше привести їх до перенавчання за тренувальними даними, ніж могло бути у випадку окремої моделі, але, на практиці, деякі техніки ансамблювання (особливо бутстрепова агрегація) схильні зменшувати проблеми, пов'язані з перенавчанням на тренувальних даних.
Емпірично ансамблі схильні давати кращі результати, якщо є відмінність моделей. Тому в багатьох ансамблевих методах намагаються підвищити різницю комбінованих моделей. Хоча, можливо, неінтуїтивні, більш випадкові алгоритми (подібні до випадкових дерев рішень) можна використати для отримання строгіших ансамблів, ніж продумані алгоритми (такі як дерева рішень зі зменшенням ентропії). Використання різних алгоритмів строгого навчання, проте, як було показано, ефективніше, ніж використання технік, які намагаються спростити моделі з метою забезпечити більшу відмінність.
Розмір ансамблю
Хоча кількість класифікаторів у ансамблі значно впливає на точність передбачення, цю проблему досліджено мало. Визначення апріорі розміру ансамблю та обсягів і швидкості великих потоків даних робить цей фактор навіть критичнішим для онлайнових ансамблів класифікаторів. Для визначення належної кількості компонентів використовувано переважно статистичні тести. Нещодавно теоретичний фреймворк дав привід припустити, що є ідеальне число класифікаторів ансамблю, таке, що число класифікаторів більше або менше від цього ідеального числа призводить до погіршення точності. Це називають «законом зменшення віддачі в побудові ансамблю». Цей теоретичний фреймворк показує, що використання числа незалежних класифікаторів, рівного кількості міток класу, дає найвищу точність.
Часто використовувані типи ансамблів
Баєсів оптимальний класифікатор
Баєсів оптимальний класифікатор — це техніка класифікації. Він є ансамблем усіх гіпотез із простору гіпотез. У середньому жоден з ансамблів не може перевершувати його. Наївний баєсів класифікатор — це версія, яка передбачає, що дані умовно незалежні від класу, і виконує обчислення за реальніший час. Кожній гіпотезі надається голос, пропорційний імовірності того, що тренувальні дані буде взято із системи, якщо гіпотеза була б істинною. Для отримання тренувальних даних скінченного розміру голос кожної гіпотези множиться на апріорну можливість такої гіпотези. Баєсів оптимальний класифікатор можна виразити такою рівністю:
- ,
де — передбачений клас, — множина всіх можливих класів, — клас гіпотез, — ймовірність, — тренувальні дані. Як ансамбль, баєсів оптимальний класифікатор представляє гіпотезу, яка не обов'язково належить до . Гіпотеза, представлена баєсовим оптимальним класифікатором, однак, є оптимальною гіпотезою у просторі ансамблів (простір усіх можливих ансамблів, які складаються лише з гіпотез простору ).
Формулу можна переписати за допомогою теореми Баєса, яка свідчить, що постеріорна ймовірність пропорційна апріорній імовірності:
звідки
Беггінг
Бутстрепове агрегування (беггінг), надає кожній моделі в ансамблі однакову вагу (голос). Щоб підтримувати варіантність, беггінг тренує кожну модель в ансамблі за допомогою випадково відібраної підмножини з тренувальної множини. Наприклад, алгоритм «випадкового лісу» комбінує випадкові дерева рішень із беггінгом, щоб отримати високу точність класифікації.
Підсилювання
Підсилювання (бустинг) будує ансамбль послідовними приростами шляхом тренування кожної нової моделі, щоб виділити екземпляри, які попередні моделі класифікували помилково. Показано, що в деяких випадках підсилювання дає кращі результати, ніж бегінг, але має тенденцію до перенавчання на тренувальних даних. Найчастішою реалізацією підсилювання є алгоритм [en], хоча є повідомлення, що деякі нові алгоритми дають кращі результати.
Усереднення баєсових параметрів
Усереднення баєсівських параметрів (англ. Bayesian parameter averaging, BPA) — це техніка складання ансамблю, за якої намагаються апроксимувати баєсівський оптимальний класифікатор шляхом вибірок із простору гіпотез і комбінування їх за допомогою закону Баєса. На відміну від баєсівського оптимального класифікатора, баєсівську модель усереднення можна реалізувати практично. Гіпотези зазвичай відбирають за допомогою техніки Монте-Карло, такої як MCMC. Наприклад, для вибирання гіпотез, які представляють розподіл , можна використати [en]. Показано, що за деяких обставин, якщо гіпотези вибирають так і усереднюють згідно із законом Баєса, ця техніка має очікувану помилку, обмежену подвійною очікуваною помилкою баєсівського оптимального класифікатора. Попри теоретичну коректність цієї техніки, в ранніх роботах на основі експериментальних даних висловлено припущення, що метод схильний до перенавчання і поводиться гірше, ніж прості техніки складання ансамблю, такі як беггінг . Однак ці висновки ґрунтуються на недостатньому розумінні мети баєсівської моделі усереднення (БМУ) для комбінації моделей. Крім того, теорія та практика БМУ має суттєві переваги. Недавні строгі доведення показують точність БМУ для вибору змінних та оцінення за багатовимірних умов і дають емпіричне свідчення істотної ролі забезпечення розрідженості в БМУ в пом'якшенні перенавчання.
Комбінація баєсівських моделей
Комбінація баєсівських моделей (КБМ, англ. Bayesian model combination, BMC) — це алгоритмічне виправлення баєсівської моделі усереднення (БМУ,англ. Bayesian model averaging, BMA). Замість вибору кожної моделі до ансамблю індивідуально, алгоритм відбирає із простору можливих ансамблів (з вагами моделей, вибраних випадково з розподілу Діріхле з однорідними параметрами). Ця модифікація дозволяє уникнути тенденції БМУ віддати повну вагу одній моделі. Хоча КБМ обчислювально дещо витратніший порівняно з БМУ, він дає істотно кращі результати. Результати КБМ, як показано, в середньому кращі, ніж БМУ та беггінг.
Використання для обчислення ваги моделі закону Баєса неминуче тягне за собою обчислення ймовірності даних для кожної моделі. Зазвичай жодна з моделей в ансамблі не має такого ж розподілу, що й тренувальні дані, з яких їх згенеровано, так що всі члени коректно набувають значення, близького до нуля. Це добре працювало б, якби ансамбль був досить великим для вибірки з повного простору моделей, але таке трапляється рідко. Отже, кожен представник тренувального набору спонукає вагу ансамблю зрушуватися до моделі в ансамблі, яка найближча до розподілу тренувальних даних. Це суттєво зменшує необхідність надмірно складного методу вибору моделі.
Можливі ваги для ансамблю можна уявити як такі, що лежать на симплексі. На кожній вершині симплексу всі ваги задаються окремою моделлю ансамблю. БМУ збігається до вершини, яка ближче за розподілом до тренувальних даних. Для контрасту, КБМ збігається до точки, де цей розподіл проєктується в симплекс. Іншими словами, замість вибору однієї моделі, найближчої до розподілу, метод шукає комбінацію моделей, найближчу до розподілу.
Часто результати БМУ можна апроксимувати за допомогою перехресної перевірки для вибору моделі із відра моделей. Аналогічно, результати КБМ можна апроксимувати за допомогою перехресної перевірки для вибору кращої комбінації ансамблів із випадкової вибірки можливих ваг.
Відро моделей
«Відро моделей» (англ. bucket of models) — це техніка збирання ансамблю, в якій використовують алгоритм вибору моделі для отримання кращої моделі для кожної задачі. Коли тестується лише одне завдання, відро моделей не може дати результату кращого, ніж найкраща модель у наборі, проте, в разі прогону для кількох задач, алгоритм зазвичай дає кращі результати, ніж будь-яка модель в наборі.
Найчастіше для вибору моделі використовують перехресну вибірку. Цей підхід описує такий псевдокод:
Для кожної моделі у відрі: Виконати c разів: (де 'c' - деяка константа) Випадково ділимо тренувальні дані на два набори: A і B. Тренуємо m за A Перевіряємо m за B Вибираємо модель, яка покаже найвищий середній результат
Перехресну вибірку можна описати як: «прожени всі на тренувальній множині і вибери ту, що працює краще».
Виділення (англ. Gating) є узагальненням перехресної вибірки. Метод залучає тренування іншої моделі навчання для вирішення, яка з моделей у відрі більше придатна для розв'язання задачі. Часто для виділення моделі використовують перцептрон. Його можна використати для вибору «найкращої» моделі, або для отримання лінійної ваги для передбачень кожної моделі у відрі.
Коли відро моделей використовують із великим набором задач, може бути бажаним уникнути тренування деяких моделей, які потребують тривалого тренування. Ландмарк-навчання — це метанавчальний підхід, який шукає розв'язок цієї задачі. Він залучає для тренування лише швидкі (але неточні) алгоритми, а потім їх ефективність використовують для визначення, який із повільних (але точних) алгоритмів вибрати як найкращий.
Стогування
Стогування (іноді зване стековим узагальненням) залучає тренування навчального алгоритму для комбінування передбачень кількох інших алгоритмів. Спочатку всі інші алгоритми тренуються за допомогою допустимих даних, потім алгоритми комбінування тренуються з метою зробити кінцевий прогноз за допомогою всіх прогнозів інших алгоритмів як додаткового входу. Якщо використовується довільний алгоритм комбінування, то стогування може теоретично представляти будь-яку техніку створення ансамблів, описану в цій статті, хоча на практиці як засіб алгоритму комбінування часто використовують модель логістичної регресії.
Стогування зазвичай дає кращу ефективність, ніж будь-яка окрема з тренувальних моделей. Його успішно використовують як у задачах навчання з учителем (регресії, класифікації та дистанційного навчання), так і задачах навчання без учителя (оцінення густини). Також його використовують для оцінки помилки беггінгу. Стверджувалося, що метод перевершив баєсівську модель усереднення. Два призери [en] використовують змішування, яке можна вважати формою стогування.
Реалізація у статистичних пакунках
- R: щонайменше три пакунки пропонують засоби для баєсівської моделі усереднення, а саме, пакет BMS (скорочення від Bayesian Model Selection), пакет BAS (скорочення від Bayesian Adaptive Sampling) та пакет BMA. Пакет H2O пропонує багато моделей машинного навчання, включно з моделлю складання ансамблю, яку можна тренувати за допомогою Spark.
- Python: Scikit-learn, пакунок для машинного навчання мовою Python, пропонує пакунки для ансамблевого навчання, зокрема, для беггінгу та методів усереднення.
- MATLAB: ансамблі класифікаторів реалізовано в наборі засобів Statistics та Machine Learning.
Застосування ансамблевого навчання
У недавні роки, внаслідок зростання обчислювальної потужності, що дозволяє тренування великих навчальних ансамблів за розумний час, кількість застосувань суттєво зросла. Деякі з застосувань класифікаторів ансамблів наведено нижче.
Дистанційне зондування Землі
Відображення рослинного покриву
[en] є одним із головних застосувань [en] з використанням дистанційного зондування та геопросторових даних для розпізнавання об'єктів, розташованих на поверхні цільових ділянок. Як правило, класи цільового матеріалу включають дороги, будівлі, річки, озера та рослинність. Запропоновано деякі різні підходи ансамблевого навчання, що базуються на штучних нейронних мережах, [en] (англ. kernel principal component analysis, KPCA), деревах рішень із підсилюванням, випадкових лісах і автоматичному створення кількох систем класифікаторів, для ефективного розпізнавання об'єктів рослинного покриву.
Виявлення змін
[en] — це задача [en], яка полягає в ідентифікації місць, де рослинний покрив із змінився. Застосовується в таких галузях, как зростання міст, [en], землекористування та [en]. Ранні застосування ансамблів класифікаторів до визначення змін розробляли за допомогою [en], баєсового середнього та оцінення апостеріорного максимуму.
Захист комп'ютера
DoS-атака
Розподілена атака типу «відмова в обслуговуванні» є однією з найзагрозливіших кібератак, яка може трапитися з інтернет-провайдером. Комбінуючи виходи окремих класифікаторів ансамбль класифікаторів знижує загальну помилку детектування та відокремлення таких атак від законних [en].
Виявлення шкідливих програм
Класифікація кодів шкідливих програм, таких як комп'ютерні віруси, мережеві хробаки, трояни, віруси-вимагачі та програми-шпигуни, за допомогою технік машинного навчання, навіяна задачею класифікування документів. Системи ансамблевого навчання показали в цій галузі надійну ефективність.
Виявлення вторгнень
Система виявлення вторгнень відстежує комп'ютерну мережу чи комп'ютери для ідентифікації кодів вторгнення, подібно до процесу виявлення аномалій. Ансамблеве навчання успішно допомагає таким системам скорочувати загальну кількість помилок.
Розпізнавання облич
Розпізнавання облич, яке нещодавно стало популярною областю досліджень у розпізнаванні образів, справляється з ідентифікацією або верифікацією особи за його/її цифровим зображенням.
Ієрархічні ансамблі, засновані на класифікаторі Габора Фішера та техніках попередньої обробки даних під час [en], належать до ранніх прикладів використання ансамблів у цій галузі.
Розпізнавання емоцій
Тоді як розпізнавання мови переважно ґрунтується на глибокому навчанні, оскільки більшість індустріальних гравців у цій галузі, такі як Google, Microsoft і IBM, використовують його як основу технології розпізнавання мовлення, засноване на розмові розпізнавання емоцій може мати задовільні показники з ансамблевим навчанням.
Метод також успішно використовувався для розпізнаванні емоцій на обличчі.
Виявлення шахрайства
Виявлення шахрайства включає ідентифікацію [en] , такого як відмивання грошей, шахрайство з платіжними картками, та телекомунікаційного шахрайства. Виявлення шахрайства має широкі можливості для дослідження та застосування машинного навчання. Оскільки ансамблеве навчання покращує стійкість нормальної поведінки моделі, його запропоновано як ефективну техніку визначення таких випадків шахрайства та підозрілої активності в банківських операціях у системах кредитних карток.
Ухвалення фінансових рішень
У процесі прийняття фінансових рішень ажливоют є очність передбачення комерційного краху, тому для передбачення фінансових криз та [en] запропоновано різні ансамблі класифікаторів. Також у задачі маніпуляюванняна основі торгів, де трейдери намагаються маніпулювати цінами акцій шляхом купівлі або продажу, ансамблюькласифікаторів пмаєпроаналізувати зміни в даних на ринку цінних паперів та визначити симптоми підозрілих маніпуляцій зі цінами акцій .
Медицина
Систему класифікаторів успішно застосовано в нейронауках, протеоміці та медичній діагностиці, зокрема, для розпізнавання [en] (тобто, хвороби Альцгеймера або [en]) заснованого на даних магнітно-резонансної томографії, або класифікація цитології шийки матки на основі мікроскопії.
Див. також
- [en]
- Баєсів структурний часовий ряд (BSTS)
Примітки
- Opitz, Maclin, 1999, с. 169—198.
- Polikar, 2006, с. 21—45.
- Rokach, 2010, с. 1—39.
- Kuncheva, Whitaker, 2003, с. 181—207.
- Sollich, Krogh, 1996, с. 190—196, 1996.
- Brown, Wyatt, Harris, Yao, 2005, с. 5—20.
- Adeva, Cerviño, Calvo, 2005.
- Ho, 1995, с. 278—282.
- Gashler, Giraud-Carrier, Martinez, 2008, с. 900—905.
- Bonab, Can, 2016, с. 2053.
- Bonab, Can, 2017.
- Mitchell, 1997, с. 175.
- Breiman, 1996, с. 123—140.
- Hoeting, Madigan, Raftery, Volinsky, 1999, с. 382–401.
- Haussler, Kearns, Schapire, 1994, с. 83–113.
- Domingos, 2000, с. 223–-230.
- Minka, 2002.
- Castillo, Schmidt-Hieber, van der Vaart, 2015, с. 1986–2018.
- Hernández-Lobato, Hernández-Lobato, Dupont, 2013, с. 1891–1945.
- Monteith, Carroll, Seppi, Martinez, 2011, с. 2657—2663.
- Dzeroski, Zenko, 2004, с. 255—273.
- Bensusan, Giraud-Carrier, 2000, с. 325—330.
- Wolpert, 1992, с. 241—259.
- Breiman, 1996.
- Ozay, Vural, 2013.
- Smyth, Wolpert, 1999, с. 59—83.
- Wolpert, Macready, 1999, с. 41—55.
- Clarke, 2003, с. 683—712.
- Sill, Takacs, Mackey, Lin, 2009.
- Amini, Parmeter, 2011, с. 253–287.
- BMS: Bayesian Model Averaging Library. The Comprehensive R Archive Network. Архів оригіналу за 28 листопада 2020. Процитовано 9 вересня 2016.
- BAS: Bayesian Model Averaging using Bayesian Adaptive Sampling. The Comprehensive R Archive Network. Архів оригіналу за 7 жовтня 2020. Процитовано 9 вересня 2016.
- BMA: Bayesian Model Averaging. The Comprehensive R Archive Network. Архів оригіналу за 7 травня 2021. Процитовано 9 вересня 2016.
- Classification Ensembles. MATLAB & Simulink. Архів оригіналу за 1 грудня 2020. Процитовано 8 червня 2017.
- Woźniak, Graña, Corchado, 2014, с. 3–17.
- Rodriguez-Galiano, Ghimire, Rogan и др., 2012, с. 93–104.
- Giacinto, Roli, 2001, с. 699–707.
- Xia, Yokoya, Iwasaki, 2017, с. 6185—6189.
- Mochizuki, Murakami, 2012, с. 126—133.
- Giacinto, Roli, Fumera, 2000, с. 160—163.
- Du, Liu, Xia, Zhao, 2013, с. 19–27.
- Bruzzone, Cossu, Vernazza, 2002, с. 289–297.
- Raj Kumar, Selvakumar, 2011, с. 1328–1341.
- Shabtai, Moskovitch, Elovici, Glezer, 2009, с. 16–29.
- Zhang, Yin, Hao, Zhang, Wang, 2007, с. 468—477.
- Menahem, Shabtai, Rokach, Elovici, 2009, с. 1483–1494.
- Locasto, Wang, Keromytis, Salvatore, 2005, с. 82—101.
- Giacinto, Perdisci, Del Rio, Roli, 2008, с. 69–82.
- Mu, Lu, Watta, Hassoun, 2009.
- Yu, Shan, Chen, Gao, 2006, с. 91—96.
- Yu, Shan, Chen, Gao, 2006, с. 528—531.
- Liu, Lin, Chen, 2008, с. 144—148.
- Rieger, Muraleedharan, Ramachandran, 2014, с. 589—593.
- Krajewski, Batliner, Kessel, 2010, с. 3716—3719.
- Rani, Muneeswaran, 2016, с. 10017–10040.
- Rani, Muneeswaran, 2016, с. 1655020.
- Rani, Muneeswaran, 2018.
- Louzada, Ara, 2012, с. 11583–11592.
- Sundarkumar, Ravi, 2015, с. 368–377.
- Kim, Sohn, 2012, с. 8986–8992.
- Savio, García-Sebastián, Chyzyk и др., 2011, с. 600–610.
- Ayerdi, Savio, Graña, 2013, с. 122—130.
- Gu, Ding, Zhang, 2015, с. 110–118.
- Dan Xue, Xiaomin Zhou, Chen Li, Yudong Yao, Md Mamunur Rahaman. An Application of Transfer Learning and Ensemble Learning Techniques for Cervical Histopathology Image Classification // IEEE Access. — 2020. — Т. 8. — С. 104603–104618. — ISSN 2169-3536. — DOI: . Архівовано з джерела 31 серпня 2021.
- Ankur Manna, Rohit Kundu, Dmitrii Kaplun, Aleksandr Sinitca, Ram Sarkar. A fuzzy rank-based ensemble of CNN models for classification of cervical cytology // Scientific Reports. — 2021. — Vol. 11, iss. 1 (1 December). — P. 14538. — ISSN 2045-2322. — DOI: . Архівовано з джерела 31 серпня 2021.
Література
- Opitz D., Maclin R. Popular ensemble methods: An empirical study // . — 1999. — Т. 11. — С. 169—198. — DOI: .
- Polikar R. Ensemble based systems in decision making // IEEE Circuits and Systems Magazine. — 2006. — Т. 6, вип. 3. — С. 21—45. — DOI: .
- Rokach L. Ensemble-based classifiers // Artificial Intelligence Review. — 2010. — Т. 33, вип. 1—2. — DOI: .
- Kuncheva L., Whitaker C. Measures of diversity in classifier ensembles and Their Relationship with the Ensemble Accuracy // Machine Learning. — 2003. — Т. 51, вип. 2.
- Sollich P., Krogh A. Learning with ensembles: How overfitting can be useful // Advances in Neural Information Processing Systems. — 1996. — Т. 8.
- Brown G., Wyatt J., Harris R., Yao X. Diversity creation methods: a survey and categorization // Information Fusion. — 2005. — Т. 6, вип. 1.
- J. J. García Adeva, Ulises Cerviño, R. Calvo. Accuracy and Diversity in Ensembles of Text Categorisers // CLEI Journal. — 2005. — Т. 8, вип. 2 (December). Архівовано з джерела 7 липня 2011.
- Ho T. Random Decision Forests // Proceedings of the Third International Conference on Document Analysis and Recognition. — 1995.
- Gashler M., Giraud-Carrier C., Martinez T. Decision Tree Ensemble: Small Heterogeneous Is Better Than Large Homogeneous // The Seventh International Conference on Machine Learning and Applications. — 2008. — DOI:
- Hamed R. Bonab, Fazli Can. A Theoretical Framework on the Ideal Number of Classifiers for Online Ensembles in Data Streams // 25th Conference on Information and Knowledge Management. — USA : ACM, 2016. — DOI:
- Hamed R. Bonab, Fazli Can. Less Is More: A Comprehensive Framework for the Number of Components of Ensemble Classifiers // IEEE Transactions on Neural Networks and Learning Systems 2017. — USA : IEEE, 2017.
- Tom M. Mitchell. Machine Learning. — McGraw-Hill Science/Engeneering/Math, 1997. — .
- Breiman, L. Bagging Predictors // Machine Learning. — 1996. — Т. 24, вип. 2.
- Hoeting J. A., Madigan D., Raftery A. E., Volinsky C. T. Bayesian Model Averaging: A Tutorial // Statistical Science. — 1999. — Т. 14, вип. 4. — DOI: .
- David Haussler, Michael Kearns, Robert E. Schapire. Bounds on the sample complexity of Bayesian learning using information theory and the VC dimension // Machine Learning. — 1994. — Т. 14.
- Pedro Domingos. Bayesian averaging of classifiers and the overfitting problem // Proceedings of the 17th . — 2000. — С. 223——230.
- Thomas Minka. Bayesian model averaging is not model combination. — 2002.
- Castillo I., Schmidt-Hieber J., van der Vaart A. Bayesian linear regression with sparse priors // . — 2015. — Т. 43, вип. 5. — arXiv:1403.0735. — DOI: .
- Hernández-Lobato D., Hernández-Lobato J. M., Dupont P. Generalized Spike-and-Slab Priors for Bayesian Group Feature Selection Using Expectation Propagation // Journal of Machine Learning Research. — 2013. — Т. 14.
- Kristine Monteith, James Carroll, Kevin Seppi, Tony Martinez. Turning Bayesian Model Averaging into Bayesian Model Combination // Proceedings of the International Joint Conference on Neural Networks IJCNN'11. — 2011. — С. 2657—2663.
- Saso Dzeroski, Bernard Zenko. Is Combining Classifiers Better than Selecting the Best One // Machine Learning. — 2004.
- Hilan Bensusan, Christophe G. Giraud-Carrier. Discovering Task Neighbourhoods Through Landmark Learning Performances // PKDD '00: Proceedings of the 4th European Conference on Principles of Data Mining and Knowledge Discovery. — Springer-Verlag, 2000.
- Smyth P., Wolpert D. H. Linearly Combining Density Estimators via Stacking // Machine Learning Journal. — 1999. — Т. 36.
- Wolpert D.H., Macready W.G. An Efficient Method to Estimate Bagging’s Generalization Error // Machine Learning Journal. — 1999. — Т. 35.
- Clarke B. Bayes model averaging and stacking when model approximation error cannot be ignored // Journal of Machine Learning Research. — 2003.
- Wolpert D. Stacked Generalization // Neural Networks. — 1992. — Т. 5, вип. 2.
- Breiman L. Stacked Regression // Machine Learning. — 1996. — Т. 24. — DOI: .
- Ozay M., Yarman Vural F. T. A New Fuzzy Stacked Generalization Technique and Analysis of its Performance. — 2013. — arXiv:1204.0171. — Bibcode: .
- Sill J., Takacs G., Mackey L., Lin D. Feature-Weighted Linear Stacking. — 2009. — arXiv:0911.0460. — Bibcode: .
- Shahram M. Amini, Christopher F. Parmeter. Bayesian model averaging in R // Journal of Economic and Social Measurement. — 2011. — Т. 36, вип. 4.
- Michał Woźniak, Manuel Graña, Emilio Corchado. A survey of multiple classifier systems as hybrid systems // Information Fusion. — 2014. — Т. 16 (March). — DOI: .
- Rodriguez-Galiano V.F., Ghimire B., Rogan J., Chica-Olmo, M., Rigol-Sanchez J.P. An assessment of the effectiveness of a random forest classifier for land-cover classification // ISPRS Journal of Photogrammetry and Remote Sensing. — 2012. — Т. 67. — Bibcode: . — DOI: .
- Giorgio Giacinto, Fabio Roli. Design of effective neural network ensembles for image classification purposes // Image and Vision Computing. — 2001. — Т. 19, вип. 9—10 (August). — DOI: .
- Junshi Xia, Naoto Yokoya, Yakira Iwasaki. A novel ensemble classifier of hyperspectral and LiDAR data using morphological features // 2017 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP). — 2017. — March. — DOI: .
- Mochizuki S., Murakami T. Accuracy comparison of land cover mapping using the object-oriented image classification with machine learning algorithms // 33rd Asian Conference on Remote Sensing 2012, ACRS 2012. — 2012. — Т. 1 (November).
- Giacinto G., Roli F., Fumera G. Design of effective multiple classifier systems by clustering of classifiers // Proceedings 15th International Conference on Pattern Recognition. ICPR-2000. — 2000. — September. — DOI: .
- Peijun Du, Sicong Liu, Junshi Xia, Yindi Zhao. Information fusion techniques for change detection from multi-temporal remote sensing images // Information Fusion. — 2013. — Т. 14, вип. 1 (January). — DOI: .
- Lorenzo Bruzzone, Roberto Cossu, Gianni Vernazza. Combining parametric and non-parametric algorithms for a partially unsupervised classification of multitemporal remote-sensing images // Information Fusion. — 2002. — Т. 3, вип. 4 (December). — DOI: .
- P. Arun Raj Kumar, S. Selvakumar. Distributed denial of service attack detection using an ensemble of neural classifier // Computer Communications. — 2011. — Т. 34, вип. 11 (July). — DOI: .
- Asaf Shabtai, Robert Moskovitch, Yuval Elovici, Chanan Glezer. Detection of malicious code by applying machine learning classifiers on static features: A state-of-the-art survey // Information Security Technical Report. — 2009. — Т. 14, вип. 1 (February). — DOI: .
- Boyun Zhang, Jianping Yin, Jingbo Hao, Dingxing Zhang, Shulin Wang. Malicious Codes Detection Based on Ensemble Learning // Autonomic and Trusted Computing. — 2007. — DOI: .
- Eitan Menahem, Asaf Shabtai, Lior Rokach, Yuval Elovici. Improving malware detection by applying multi-inducer ensemble // Computational Statistics & Data Analysis. — 2009. — Т. 53, вип. 4 (February). — DOI: .
- Michael E. Locasto, Ke Wang, Angeles D. Keromytis, J. Stolfo Salvatore. FLIPS: Hybrid Adaptive Intrusion Prevention // Recent Advances in Intrusion Detection. — 2005. — DOI: .
- Giorgio Giacinto, Roberto Perdisci, Mauro Del Rio, Fabio Roli. Intrusion detection in computer networks by a modular ensemble of one-class classifiers // Information Fusion. — 2008. — Т. 9, вип. 1 (January). — DOI: .
- Xiaoyan Mu, Jiangfeng Lu, Paul Watta, Mohamad H. Hassoun. Weighted voting-based ensemble classifiers with application to human face recognition and voice recognition // 2009 International Joint Conference on Neural Networks. — 2009. — July. — DOI: .
- Su Yu, Shiguang Shan, Xilin Chen, Wen Gao. Hierarchical ensemble of Gabor Fisher classifier for face recognition // Automatic Face and Gesture Recognition, 2006. FGR 2006. 7th International Conference on Automatic Face and Gesture Recognition (FGR06). — 2006. — April. — DOI: .
- Su Yu, Shiguang Shan, Xilin Chen, Wen Gao. Patch-based gabor fisher classifier for face recognition // Proceedings - International Conference on Pattern Recognition. — 2006. — Т. 2 (September). — DOI: .
- Yang Liu, Yongzheng Lin, Yuehui Chen. Ensemble Classification Based on ICA for Face Recognition // Proceedings - 1st International Congress on Image and Signal Processing, IEEE Conference, CISP 2008. — 2008. — July. — DOI: .
- Steven A. Rieger, Rajani Muraleedharan, Ravi P. Ramachandran. Speech based emotion recognition using spectral feature extraction and an ensemble of kNN classifiers // Proceedings of the 9th International Symposium on Chinese Spoken Language Processing, ISCSLP 2014. — 2014. — DOI:
- Jarek Krajewski, Anton Batliner, Silke Kessel. Comparing Multiple Classifiers for Speech-Based Detection of Self-Confidence - A Pilot Study // 20th International Conference on Pattern Recognition. — 2010. — DOI:
- P. Ithaya Rani, K. Muneeswaran. Recognize the facial emotion in video sequences using eye and mouth temporal Gabor features // Multimedia Tools and Applications. — 2016. — Т. 76, вип. 7 (May). — DOI: .
- P. Ithaya Rani, K. Muneeswaran. Facial Emotion Recognition Based on Eye and Mouth Regions // International Journal of Pattern Recognition and Artificial Intelligence. — 2016. — Т. 30, вип. 07 (August). — DOI: .
- P. Ithaya Rani, K. Muneeswaran. Emotion recognition based on facial components // Sādhanā. — 2018. — Т. 43, вип. 3 (March). — DOI: .
- Francisco Louzada, Anderson Ara. Bagging k-dependence probabilistic networks: An alternative powerful fraud detection tool // Expert Systems with Applications. — 2012. — Т. 39, вип. 14 (October). — DOI: .
- G. Ganesh Sundarkumar, Vadlamani Ravi. A novel hybrid undersampling method for mining unbalanced datasets in banking and insurance // Engineering Applications of Artificial Intelligence. — 2015. — Т. 37 (January). — DOI: .
- Yoonseong Kim, So Young Sohn. Stock fraud detection using peer group analysis // Expert Systems with Applications. — 2012. — Т. 39, вип. 10 (August). — DOI: .
- {{Стаття|author=Yoonseong Kim, So Young Sohn|ref=Kim, Sohn|title=Stock fraud detection using peer group analysis|видання=Expert Systems with Applications|місяць=August|рік=2012|том=39|issue=10|doi=10.1016/j.eswa.2012.02.025рік
- Savio A., García-Sebastián M.T., Chyzyk D., Hernandez C., Graña M., Sistiaga A., López de Munain A., Villanúa J. Neurocognitive disorder detection based on feature vectors extracted from VBM analysis of structural MRI // Computers in Biology and Medicine. — 2011. — Т. 41, вип. 8 (August). — DOI: .
- Ayerdi B., Savio A., Graña M. Meta-ensembles of classifiers for Alzheimer's disease detection using independent ROI features // Lecture Notes in Computer Science (including subseries Lecture Notes in Artificial Intelligence and Lecture Notes in Bioinformatics). — 2013. — Вип. Part 2 (June). — DOI: .
- Quan Gu, Yong-Sheng Ding, Tong-Liang Zhang. An ensemble classifier based prediction of G-protein-coupled receptor classes in low homology // Neurocomputing. — 2015. — Т. 154 (April). — DOI: .
- Zhou Zhihua. Ensemble Methods: Foundations and Algorithms. — Chapman and Hall/CRC, 2012. — .
- Robert Schapire, Yoav Freund. Boosting: Foundations and Algorithms. — MIT, 2012. — .
Вікіпедія, Українська, Україна, книга, книги, бібліотека, стаття, читати, завантажити, безкоштовно, безкоштовно завантажити, mp3, відео, mp4, 3gp, jpg, jpeg, gif, png, малюнок, музика, пісня, фільм, книга, гра, ігри, мобільний, телефон, android, ios, apple, мобільний телефон, samsung, iphone, xiomi, xiaomi, redmi, honor, oppo, nokia, sonya, mi, ПК, web, Інтернет
Ansambleve navchannya tehnika mashinnogo navchannya sho vikoristovuye kilka navchenih algoritmiv z metoyu otrimati krashu peredbachalnu efektivnist en nizh mozhna otrimati vid kozhnogo algoritmu okremo 1 2 3 Na vidminu vid statistichnogo ansamblyu en v statistichnij mehanici yakij zazvichaj neskinchennij ansambl modelej u mashinnomu navchanni skladayetsya z konkretnoyi skinchennoyi mnozhini alternativnih modelej ale zazvichaj dozvolyaye isnuvati istotno gnuchkishim strukturam Algoritmi navchannya z uchitelem najchastishe opisuyut yak rozv yazannya zadachi poshuku u prostori gipotez vidpovidnoyi gipotezi takoyi sho dozvolyaye robiti garni peredbachennya dlya konkretnoyi zadachi Ale poshuk horoshoyi gipotezi mozhe buti skladnoyu zadacheyu Ansambl vikoristovuye kombinaciyu kilkoh gipotez spodivayuchis sho vona viyavitsya krashoyu nizh okremi gipotezi Termin ansambl zazvichaj rezervuyut dlya metodiv yaki generuyut kilka gipotez za dopomogoyu odnogo j togo zh bazovogo uchnya Shirshe ponyattya sistemi mnozhinnih klasifikatoriv takozh vikoristovuye kilka gipotez ale zgenerovanih ne za dopomogoyu odnogo j togo zh uchnya dzherelo Obchislennya peredbachennya ansamblyu zazvichaj potrebuye bilshe obchislen nizh peredbachennya odniyeyi modeli otzhe ansambli mozhna vvazhati sposobom kompensaciyi poganogo algoritmu navchannya dodatkovimi obchislennyami V ansambli modelej zazvichaj vikoristovuyut shvidki algoritmi taki yak dereva rishen napriklad vipadkovi lisi hocha povilni algoritmi mozhut otrimati perevagi vid ansamblevoyi tehniki Za analogiyeyu ansamblevu tehniku vikoristovuyut takozh u scenariyah navchannya bez uchitelya napriklad klasterizaciyi na osnovi zgodi en abo u viyavlenni anomalij Zmist 1 Teoriya ansamblyuvannya 2 Rozmir ansamblyu 3 Chasto vikoristovuvani tipi ansambliv 3 1 Bayesiv optimalnij klasifikator 3 2 Begging 3 3 Pidsilyuvannya 3 4 Userednennya bayesovih parametriv 3 5 Kombinaciya bayesivskih modelej 3 6 Vidro modelej 3 7 Stoguvannya 4 Realizaciya u statistichnih pakunkah 5 Zastosuvannya ansamblevogo navchannya 5 1 Distancijne zonduvannya Zemli 5 1 1 Vidobrazhennya roslinnogo pokrivu 5 1 2 Viyavlennya zmin 5 2 Zahist komp yutera 5 2 1 DoS ataka 5 2 2 Viyavlennya shkidlivih program 5 2 3 Viyavlennya vtorgnen 5 3 Rozpiznavannya oblich 5 4 Rozpiznavannya emocij 5 5 Viyavlennya shahrajstva 5 6 Uhvalennya finansovih rishen 5 7 Medicina 6 Div takozh 7 Primitki 8 LiteraturaTeoriya ansamblyuvannyared Ansambl ye algoritmom navchannya z uchitelem oskilki jogo mozhna natrenuvati a potim vikoristati dlya zdijsnennya peredbachennya Tomu trenovanij ansambl nadaye odnu gipotezu Cya gipoteza prote neobov yazkovo lezhit u prostori gipotez modelej iz yakih yiyi pobudovano Takim chinom ansambli mozhut mati bilshu gnuchkist u funkciyah yaki mozhut predstavlyati Cya gnuchkist mozhe teoretichno shvidshe privesti yih do perenavchannya za trenuvalnimi danimi nizh moglo buti u vipadku okremoyi modeli ale na praktici deyaki tehniki ansamblyuvannya osoblivo butstrepova agregaciya shilni zmenshuvati problemi pov yazani z perenavchannyam na trenuvalnih danih Empirichno ansambli shilni davati krashi rezultati yaksho ye vidminnist modelej 4 5 Tomu v bagatoh ansamblevih metodah namagayutsya pidvishiti riznicyu kombinovanih modelej 6 7 Hocha mozhlivo neintuyitivni bilsh vipadkovi algoritmi podibni do vipadkovih derev rishen mozhna vikoristati dlya otrimannya strogishih ansambliv nizh produmani algoritmi taki yak dereva rishen zi zmenshennyam entropiyi 8 Vikoristannya riznih algoritmiv strogogo navchannya prote yak bulo pokazano efektivnishe nizh vikoristannya tehnik yaki namagayutsya sprostiti modeli z metoyu zabezpechiti bilshu vidminnist 9 Rozmir ansamblyured Hocha kilkist klasifikatoriv u ansambli znachno vplivaye na tochnist peredbachennya cyu problemu doslidzheno malo Viznachennya apriori rozmiru ansamblyu ta obsyagiv i shvidkosti velikih potokiv danih robit cej faktor navit kritichnishim dlya onlajnovih ansambliv klasifikatoriv Dlya viznachennya nalezhnoyi kilkosti komponentiv vikoristovuvano perevazhno statistichni testi Neshodavno teoretichnij frejmvork dav privid pripustiti sho ye idealne chislo klasifikatoriv ansamblyu take sho chislo klasifikatoriv bilshe abo menshe vid cogo idealnogo chisla prizvodit do pogirshennya tochnosti Ce nazivayut zakonom zmenshennya viddachi v pobudovi ansamblyu Cej teoretichnij frejmvork pokazuye sho vikoristannya chisla nezalezhnih klasifikatoriv rivnogo kilkosti mitok klasu daye najvishu tochnist 10 11 Chasto vikoristovuvani tipi ansamblivred Bayesiv optimalnij klasifikatorred Bayesiv optimalnij klasifikator ce tehnika klasifikaciyi Vin ye ansamblem usih gipotez iz prostoru gipotez U serednomu zhoden z ansambliv ne mozhe perevershuvati jogo 12 Nayivnij bayesiv klasifikator ce versiya yaka peredbachaye sho dani umovno nezalezhni vid klasu i vikonuye obchislennya za realnishij chas Kozhnij gipotezi nadayetsya golos proporcijnij imovirnosti togo sho trenuvalni dani bude vzyato iz sistemi yaksho gipoteza bula b istinnoyu Dlya otrimannya trenuvalnih danih skinchennogo rozmiru golos kozhnoyi gipotezi mnozhitsya na apriornu mozhlivist takoyi gipotezi Bayesiv optimalnij klasifikator mozhna viraziti takoyu rivnistyu y a r g m a x c j C h i H P c j h i P T h i P h i displaystyle y underset c j in C mathrm argmax sum h i in H P c j h i P T h i P h i nbsp de y displaystyle y nbsp peredbachenij klas C displaystyle C nbsp mnozhina vsih mozhlivih klasiv H displaystyle H nbsp klas gipotez P displaystyle P nbsp jmovirnist T displaystyle T nbsp trenuvalni dani Yak ansambl bayesiv optimalnij klasifikator predstavlyaye gipotezu yaka ne obov yazkovo nalezhit do H displaystyle H nbsp Gipoteza predstavlena bayesovim optimalnim klasifikatorom odnak ye optimalnoyu gipotezoyu u prostori ansambliv prostir usih mozhlivih ansambliv yaki skladayutsya lishe z gipotez prostoru H displaystyle H nbsp Formulu mozhna perepisati za dopomogoyu teoremi Bayesa yaka svidchit sho posteriorna jmovirnist proporcijna apriornij imovirnosti P h i T P T h i P h i displaystyle P h i T propto P T h i P h i nbsp zvidki y a r g m a x c j C h i H P c j h i P h i T displaystyle y underset c j in C mathrm argmax sum h i in H P c j h i P h i T nbsp Beggingred Butstrepove agreguvannya begging nadaye kozhnij modeli v ansambli odnakovu vagu golos Shob pidtrimuvati variantnist begging trenuye kozhnu model v ansambli za dopomogoyu vipadkovo vidibranoyi pidmnozhini z trenuvalnoyi mnozhini Napriklad algoritm vipadkovogo lisu kombinuye vipadkovi dereva rishen iz beggingom shob otrimati visoku tochnist klasifikaciyi 13 Pidsilyuvannyared Dokladnishe Pidsilyuvannya mashinne navchannya Pidsilyuvannya busting buduye ansambl poslidovnimi prirostami shlyahom trenuvannya kozhnoyi novoyi modeli shob vidiliti ekzemplyari yaki poperedni modeli klasifikuvali pomilkovo Pokazano sho v deyakih vipadkah pidsilyuvannya daye krashi rezultati nizh beging ale maye tendenciyu do perenavchannya na trenuvalnih danih Najchastishoyu realizaciyeyu pidsilyuvannya ye algoritm AdaBoost en hocha ye povidomlennya sho deyaki novi algoritmi dayut krashi rezultati Userednennya bayesovih parametrivred Userednennya bayesivskih parametriv angl Bayesian parameter averaging BPA ce tehnika skladannya ansamblyu za yakoyi namagayutsya aproksimuvati bayesivskij optimalnij klasifikator shlyahom vibirok iz prostoru gipotez i kombinuvannya yih za dopomogoyu zakonu Bayesa 14 Na vidminu vid bayesivskogo optimalnogo klasifikatora bayesivsku model userednennya mozhna realizuvati praktichno Gipotezi zazvichaj vidbirayut za dopomogoyu tehniki Monte Karlo takoyi yak MCMC Napriklad dlya vibirannya gipotez yaki predstavlyayut rozpodil P T H displaystyle P T H nbsp mozhna vikoristati semplyuvannya za Gibbsom en Pokazano sho za deyakih obstavin yaksho gipotezi vibirayut tak i userednyuyut zgidno iz zakonom Bayesa cya tehnika maye ochikuvanu pomilku obmezhenu podvijnoyu ochikuvanoyu pomilkoyu bayesivskogo optimalnogo klasifikatora 15 Popri teoretichnu korektnist ciyeyi tehniki v rannih robotah na osnovi eksperimentalnih danih vislovleno pripushennya sho metod shilnij do perenavchannya i povoditsya girshe nizh prosti tehniki skladannya ansamblyu taki yak begging 16 Odnak ci visnovki gruntuyutsya na nedostatnomu rozuminni meti bayesivskoyi modeli userednennya BMU dlya kombinaciyi modelej 17 Krim togo teoriya ta praktika BMU maye suttyevi perevagi Nedavni strogi dovedennya pokazuyut tochnist BMU dlya viboru zminnih ta ocinennya za bagatovimirnih umov 18 i dayut empirichne svidchennya istotnoyi roli zabezpechennya rozridzhenosti v BMU v pom yakshenni perenavchannya 19 Kombinaciya bayesivskih modelejred Kombinaciya bayesivskih modelej KBM angl Bayesian model combination BMC ce algoritmichne vipravlennya bayesivskoyi modeli userednennya BMU angl Bayesian model averaging BMA Zamist viboru kozhnoyi modeli do ansamblyu individualno algoritm vidbiraye iz prostoru mozhlivih ansambliv z vagami modelej vibranih vipadkovo z rozpodilu Dirihle z odnoridnimi parametrami Cya modifikaciya dozvolyaye uniknuti tendenciyi BMU viddati povnu vagu odnij modeli Hocha KBM obchislyuvalno desho vitratnishij porivnyano z BMU vin daye istotno krashi rezultati Rezultati KBM yak pokazano v serednomu krashi nizh BMU ta begging 20 Vikoristannya dlya obchislennya vagi modeli zakonu Bayesa neminuche tyagne za soboyu obchislennya jmovirnosti danih dlya kozhnoyi modeli Zazvichaj zhodna z modelej v ansambli ne maye takogo zh rozpodilu sho j trenuvalni dani z yakih yih zgenerovano tak sho vsi chleni korektno nabuvayut znachennya blizkogo do nulya Ce dobre pracyuvalo b yakbi ansambl buv dosit velikim dlya vibirki z povnogo prostoru modelej ale take traplyayetsya ridko Otzhe kozhen predstavnik trenuvalnogo naboru sponukaye vagu ansamblyu zrushuvatisya do modeli v ansambli yaka najblizhcha do rozpodilu trenuvalnih danih Ce suttyevo zmenshuye neobhidnist nadmirno skladnogo metodu viboru modeli Mozhlivi vagi dlya ansamblyu mozhna uyaviti yak taki sho lezhat na simpleksi Na kozhnij vershini simpleksu vsi vagi zadayutsya okremoyu modellyu ansamblyu BMU zbigayetsya do vershini yaka blizhche za rozpodilom do trenuvalnih danih Dlya kontrastu KBM zbigayetsya do tochki de cej rozpodil proyektuyetsya v simpleks Inshimi slovami zamist viboru odniyeyi modeli najblizhchoyi do rozpodilu metod shukaye kombinaciyu modelej najblizhchu do rozpodilu Chasto rezultati BMU mozhna aproksimuvati za dopomogoyu perehresnoyi perevirki dlya viboru modeli iz vidra modelej Analogichno rezultati KBM mozhna aproksimuvati za dopomogoyu perehresnoyi perevirki dlya viboru krashoyi kombinaciyi ansambliv iz vipadkovoyi vibirki mozhlivih vag Vidro modelejred Vidro modelej angl bucket of models ce tehnika zbirannya ansamblyu v yakij vikoristovuyut algoritm viboru modeli dlya otrimannya krashoyi modeli dlya kozhnoyi zadachi Koli testuyetsya lishe odne zavdannya vidro modelej ne mozhe dati rezultatu krashogo nizh najkrasha model u nabori prote v razi progonu dlya kilkoh zadach algoritm zazvichaj daye krashi rezultati nizh bud yaka model v nabori Najchastishe dlya viboru modeli vikoristovuyut perehresnu vibirku Cej pidhid opisuye takij psevdokod Dlya kozhnoyi modeli u vidri Vikonati c raziv de c deyaka konstanta Vipadkovo dilimo trenuvalni dani na dva nabori A i B Trenuyemo m za A Pereviryayemo m za B Vibirayemo model yaka pokazhe najvishij serednij rezultat Perehresnu vibirku mozhna opisati yak prozheni vsi na trenuvalnij mnozhini i viberi tu sho pracyuye krashe 21 Vidilennya angl Gating ye uzagalnennyam perehresnoyi vibirki Metod zaluchaye trenuvannya inshoyi modeli navchannya dlya virishennya yaka z modelej u vidri bilshe pridatna dlya rozv yazannya zadachi Chasto dlya vidilennya modeli vikoristovuyut perceptron Jogo mozhna vikoristati dlya viboru najkrashoyi modeli abo dlya otrimannya linijnoyi vagi dlya peredbachen kozhnoyi modeli u vidri Koli vidro modelej vikoristovuyut iz velikim naborom zadach mozhe buti bazhanim uniknuti trenuvannya deyakih modelej yaki potrebuyut trivalogo trenuvannya Landmark navchannya ce metanavchalnij pidhid yakij shukaye rozv yazok ciyeyi zadachi Vin zaluchaye dlya trenuvannya lishe shvidki ale netochni algoritmi a potim yih efektivnist vikoristovuyut dlya viznachennya yakij iz povilnih ale tochnih algoritmiv vibrati yak najkrashij 22 Stoguvannyared Stoguvannya inodi zvane stekovim uzagalnennyam zaluchaye trenuvannya navchalnogo algoritmu dlya kombinuvannya peredbachen kilkoh inshih algoritmiv Spochatku vsi inshi algoritmi trenuyutsya za dopomogoyu dopustimih danih potim algoritmi kombinuvannya trenuyutsya z metoyu zrobiti kincevij prognoz za dopomogoyu vsih prognoziv inshih algoritmiv yak dodatkovogo vhodu Yaksho vikoristovuyetsya dovilnij algoritm kombinuvannya to stoguvannya mozhe teoretichno predstavlyati bud yaku tehniku stvorennya ansambliv opisanu v cij statti hocha na praktici yak zasib algoritmu kombinuvannya chasto vikoristovuyut model logistichnoyi regresiyi Stoguvannya zazvichaj daye krashu efektivnist nizh bud yaka okrema z trenuvalnih modelej 23 Jogo uspishno vikoristovuyut yak u zadachah navchannya z uchitelem regresiyi 24 klasifikaciyi ta distancijnogo navchannya 25 tak i zadachah navchannya bez uchitelya ocinennya gustini 26 Takozh jogo vikoristovuyut dlya ocinki pomilki beggingu 3 27 Stverdzhuvalosya sho metod perevershiv bayesivsku model userednennya 28 Dva prizeri konkursu Netflix en vikoristovuyut zmishuvannya yake mozhna vvazhati formoyu stoguvannya 29 Realizaciya u statistichnih pakunkahred R shonajmenshe tri pakunki proponuyut zasobi dlya bayesivskoyi modeli userednennya 30 a same paket BMS skorochennya vid Bayesian Model Selection 31 paket BAS skorochennya vid Bayesian Adaptive Sampling 32 ta paket BMA 33 Paket H2O proponuye bagato modelej mashinnogo navchannya vklyuchno z modellyu skladannya ansamblyu yaku mozhna trenuvati za dopomogoyu Spark Python Scikit learn pakunok dlya mashinnogo navchannya movoyu Python proponuye pakunki dlya ansamblevogo navchannya zokrema dlya beggingu ta metodiv userednennya MATLAB ansambli klasifikatoriv realizovano v nabori zasobiv Statistics ta Machine Learning 34 Zastosuvannya ansamblevogo navchannyared U nedavni roki vnaslidok zrostannya obchislyuvalnoyi potuzhnosti sho dozvolyaye trenuvannya velikih navchalnih ansambliv za rozumnij chas kilkist zastosuvan suttyevo zrosla 35 Deyaki z zastosuvan klasifikatoriv ansambliv navedeno nizhche Distancijne zonduvannya Zemlired Vidobrazhennya roslinnogo pokrivured Vidobrazhennya roslinnogo pokrivu en ye odnim iz golovnih zastosuvan sposterezhennya za Zemleyu en z vikoristannyam distancijnogo zonduvannya ta geoprostorovih danih dlya rozpiznavannya ob yektiv roztashovanih na poverhni cilovih dilyanok Yak pravilo klasi cilovogo materialu vklyuchayut dorogi budivli richki ozera ta roslinnist 36 Zaproponovano deyaki rizni pidhodi ansamblevogo navchannya sho bazuyutsya na shtuchnih nejronnih merezhah 37 yadernomu metodi golovnih komponent en angl kernel principal component analysis KPCA 38 derevah rishen iz pidsilyuvannyam 39 vipadkovih lisah 36 i avtomatichnomu stvorennya kilkoh sistem klasifikatoriv 40 dlya efektivnogo rozpiznavannya ob yektiv roslinnogo pokrivu Viyavlennya zminred Viyavlennya zmin en ce zadacha analizu zobrazhen en yaka polyagaye v identifikaciyi misc de roslinnij pokriv iz zminivsya Zastosovuyetsya v takih galuzyah kak zrostannya mist dinamika zmin u lisah i roslinnosti en zemlekoristuvannya ta viyavlennya stihijnih lih en 41 Ranni zastosuvannya ansambliv klasifikatoriv do viznachennya zmin rozroblyali za dopomogoyu golosuvannya bilshistyu golosiv en bayesovogo serednogo ta ocinennya aposteriornogo maksimumu 42 Zahist komp yuterared DoS atakared Rozpodilena ataka tipu vidmova v obslugovuvanni ye odniyeyu z najzagrozlivishih kiberatak yaka mozhe trapitisya z internet provajderom 35 Kombinuyuchi vihodi okremih klasifikatoriv ansambl klasifikatoriv znizhuye zagalnu pomilku detektuvannya ta vidokremlennya takih atak vid zakonnih fleshmobiv en 43 Viyavlennya shkidlivih programred Klasifikaciya kodiv shkidlivih program takih yak komp yuterni virusi merezhevi hrobaki troyani virusi vimagachi ta programi shpiguni za dopomogoyu tehnik mashinnogo navchannya naviyana zadacheyu klasifikuvannya dokumentiv 44 Sistemi ansamblevogo navchannya pokazali v cij galuzi nadijnu efektivnist 45 46 Viyavlennya vtorgnenred Sistema viyavlennya vtorgnen vidstezhuye komp yuternu merezhu chi komp yuteri dlya identifikaciyi kodiv vtorgnennya podibno do procesu viyavlennya anomalij Ansambleve navchannya uspishno dopomagaye takim sistemam skorochuvati zagalnu kilkist pomilok 47 48 Rozpiznavannya oblichred Rozpiznavannya oblich yake neshodavno stalo populyarnoyu oblastyu doslidzhen u rozpiznavanni obraziv spravlyayetsya z identifikaciyeyu abo verifikaciyeyu osobi za jogo yiyi cifrovim zobrazhennyam 49 Iyerarhichni ansambli zasnovani na klasifikatori Gabora Fishera ta tehnikah poperednoyi obrobki danih pid chas analizu nezalezhnih komponentiv en nalezhat do rannih prikladiv vikoristannya ansambliv u cij galuzi 50 51 52 Rozpiznavannya emocijred Todi yak rozpiznavannya movi perevazhno gruntuyetsya na glibokomu navchanni oskilki bilshist industrialnih gravciv u cij galuzi taki yak Google Microsoft i IBM vikoristovuyut jogo yak osnovu tehnologiyi rozpiznavannya movlennya zasnovane na rozmovi rozpiznavannya emocij mozhe mati zadovilni pokazniki z ansamblevim navchannyam 53 54 Metod takozh uspishno vikoristovuvavsya dlya rozpiznavanni emocij na oblichchi 55 56 57 Viyavlennya shahrajstvared Viyavlennya shahrajstva vklyuchaye identifikaciyu bankivskogo shahrajstva en takogo yak vidmivannya groshej shahrajstvo z platizhnimi kartkami ta telekomunikacijnogo shahrajstva Viyavlennya shahrajstva maye shiroki mozhlivosti dlya doslidzhennya ta zastosuvannya mashinnogo navchannya Oskilki ansambleve navchannya pokrashuye stijkist normalnoyi povedinki modeli jogo zaproponovano yak efektivnu tehniku viznachennya takih vipadkiv shahrajstva ta pidozriloyi aktivnosti v bankivskih operaciyah u sistemah kreditnih kartok 58 59 Uhvalennya finansovih rishenred U procesi prijnyattya finansovih rishen azhlivoyut ye ochnist peredbachennya komercijnogo krahu tomu dlya peredbachennya finansovih kriz ta finansovih krahiv en zaproponovano rizni ansambli klasifikatoriv 60 Takozh u zadachi manipulyayuvannyana osnovi torgiv de trejderi namagayutsya manipulyuvati cinami akcij shlyahom kupivli abo prodazhu ansamblyuklasifikatoriv pmayeproanalizuvati zmini v danih na rinku cinnih paperiv ta viznachiti simptomi pidozrilih manipulyacij zi cinami akcij 60 Medicinared Sistemu klasifikatoriv uspishno zastosovano v nejronaukah proteomici ta medichnij diagnostici zokrema dlya rozpiznavannya nejrokognitivnih rozladiv en tobto hvorobi Alcgejmera abo miotonichnoyi distrofiyi en zasnovanogo na danih magnitno rezonansnoyi tomografiyi 61 62 63 abo klasifikaciya citologiyi shijki matki na osnovi mikroskopiyi 64 65 Div takozhred Ansambleve userednennya mashinne navchannya en Bayesiv strukturnij chasovij ryad BSTS Primitkired Opitz Maclin 1999 s 169 198 Polikar 2006 s 21 45 a b Rokach 2010 s 1 39 Kuncheva Whitaker 2003 s 181 207 Sollich Krogh 1996 s 190 196 1996 Brown Wyatt Harris Yao 2005 s 5 20 Adeva Cervino Calvo 2005 Ho 1995 s 278 282 Gashler Giraud Carrier Martinez 2008 s 900 905 Bonab Can 2016 s 2053 Bonab Can 2017 Mitchell 1997 s 175 Breiman 1996 s 123 140 Hoeting Madigan Raftery Volinsky 1999 s 382 401 Haussler Kearns Schapire 1994 s 83 113 Domingos 2000 s 223 230 Minka 2002 Castillo Schmidt Hieber van der Vaart 2015 s 1986 2018 Hernandez Lobato Hernandez Lobato Dupont 2013 s 1891 1945 Monteith Carroll Seppi Martinez 2011 s 2657 2663 Dzeroski Zenko 2004 s 255 273 Bensusan Giraud Carrier 2000 s 325 330 Wolpert 1992 s 241 259 Breiman 1996 Ozay Vural 2013 Smyth Wolpert 1999 s 59 83 Wolpert Macready 1999 s 41 55 Clarke 2003 s 683 712 Sill Takacs Mackey Lin 2009 Amini Parmeter 2011 s 253 287 BMS Bayesian Model Averaging Library The Comprehensive R Archive Network Arhiv originalu za 28 listopada 2020 Procitovano 9 veresnya 2016 BAS Bayesian Model Averaging using Bayesian Adaptive Sampling The Comprehensive R Archive Network Arhiv originalu za 7 zhovtnya 2020 Procitovano 9 veresnya 2016 BMA Bayesian Model Averaging The Comprehensive R Archive Network Arhiv originalu za 7 travnya 2021 Procitovano 9 veresnya 2016 Classification Ensembles MATLAB amp Simulink Arhiv originalu za 1 grudnya 2020 Procitovano 8 chervnya 2017 a b Wozniak Grana Corchado 2014 s 3 17 a b Rodriguez Galiano Ghimire Rogan i dr 2012 s 93 104 Giacinto Roli 2001 s 699 707 Xia Yokoya Iwasaki 2017 s 6185 6189 Mochizuki Murakami 2012 s 126 133 Giacinto Roli Fumera 2000 s 160 163 Du Liu Xia Zhao 2013 s 19 27 Bruzzone Cossu Vernazza 2002 s 289 297 Raj Kumar Selvakumar 2011 s 1328 1341 Shabtai Moskovitch Elovici Glezer 2009 s 16 29 Zhang Yin Hao Zhang Wang 2007 s 468 477 Menahem Shabtai Rokach Elovici 2009 s 1483 1494 Locasto Wang Keromytis Salvatore 2005 s 82 101 Giacinto Perdisci Del Rio Roli 2008 s 69 82 Mu Lu Watta Hassoun 2009 Yu Shan Chen Gao 2006 s 91 96 Yu Shan Chen Gao 2006 s 528 531 Liu Lin Chen 2008 s 144 148 Rieger Muraleedharan Ramachandran 2014 s 589 593 Krajewski Batliner Kessel 2010 s 3716 3719 Rani Muneeswaran 2016 s 10017 10040 Rani Muneeswaran 2016 s 1655020 Rani Muneeswaran 2018 Louzada Ara 2012 s 11583 11592 Sundarkumar Ravi 2015 s 368 377 a b Kim Sohn 2012 s 8986 8992 Savio Garcia Sebastian Chyzyk i dr 2011 s 600 610 Ayerdi Savio Grana 2013 s 122 130 Gu Ding Zhang 2015 s 110 118 Dan Xue Xiaomin Zhou Chen Li Yudong Yao Md Mamunur Rahaman An Application of Transfer Learning and Ensemble Learning Techniques for Cervical Histopathology Image Classification IEEE Access 2020 T 8 S 104603 104618 ISSN 2169 3536 DOI 10 1109 ACCESS 2020 2999816 Arhivovano z dzherela 31 serpnya 2021 Ankur Manna Rohit Kundu Dmitrii Kaplun Aleksandr Sinitca Ram Sarkar A fuzzy rank based ensemble of CNN models for classification of cervical cytology Scientific Reports 2021 Vol 11 iss 1 1 December P 14538 ISSN 2045 2322 DOI 10 1038 s41598 021 93783 8 Arhivovano z dzherela 31 serpnya 2021 Literaturared Opitz D Maclin R Popular ensemble methods An empirical study Journal of Artificial Intelligence Research 1999 T 11 S 169 198 DOI 10 1613 jair 614 Polikar R Ensemble based systems in decision making IEEE Circuits and Systems Magazine 2006 T 6 vip 3 S 21 45 DOI 10 1109 MCAS 2006 1688199 Rokach L Ensemble based classifiers Artificial Intelligence Review 2010 T 33 vip 1 2 DOI 10 1007 s10462 009 9124 7 Kuncheva L Whitaker C Measures of diversity in classifier ensembles and Their Relationship with the Ensemble Accuracy Machine Learning 2003 T 51 vip 2 Sollich P Krogh A Learning with ensembles How overfitting can be useful Advances in Neural Information Processing Systems 1996 T 8 Brown G Wyatt J Harris R Yao X Diversity creation methods a survey and categorization Information Fusion 2005 T 6 vip 1 J J Garcia Adeva Ulises Cervino R Calvo Accuracy and Diversity in Ensembles of Text Categorisers CLEI Journal 2005 T 8 vip 2 December Arhivovano z dzherela 7 lipnya 2011 Ho T Random Decision Forests Proceedings of the Third International Conference on Document Analysis and Recognition 1995 Gashler M Giraud Carrier C Martinez T Decision Tree Ensemble Small Heterogeneous Is Better Than Large Homogeneous The Seventh International Conference on Machine Learning and Applications 2008 DOI 10 1109 ICMLA 2008 154 Hamed R Bonab Fazli Can A Theoretical Framework on the Ideal Number of Classifiers for Online Ensembles in Data Streams 25th Conference on Information and Knowledge Management USA ACM 2016 DOI 10 1145 2983323 2983907 Hamed R Bonab Fazli Can Less Is More A Comprehensive Framework for the Number of Components of Ensemble Classifiers IEEE Transactions on Neural Networks and Learning Systems 2017 USA IEEE 2017 Tom M Mitchell Machine Learning McGraw Hill Science Engeneering Math 1997 ISBN 0070428077 Breiman L Bagging Predictors Machine Learning 1996 T 24 vip 2 Hoeting J A Madigan D Raftery A E Volinsky C T Bayesian Model Averaging A Tutorial Statistical Science 1999 T 14 vip 4 DOI 10 2307 2676803 David Haussler Michael Kearns Robert E Schapire Bounds on the sample complexity of Bayesian learning using information theory and the VC dimension Machine Learning 1994 T 14 Pedro Domingos Bayesian averaging of classifiers and the overfitting problem Proceedings of the 17thInternational Conference on Machine Learning ICML 2000 S 223 230 Thomas Minka Bayesian model averaging is not model combination 2002 Castillo I Schmidt Hieber J van der Vaart A Bayesian linear regression with sparse priors Annals of Statistics 2015 T 43 vip 5 arXiv 1403 0735 DOI 10 1214 15 AOS1334 Hernandez Lobato D Hernandez Lobato J M Dupont P Generalized Spike and Slab Priors for Bayesian Group Feature Selection Using Expectation Propagation Journal of Machine Learning Research 2013 T 14 Kristine Monteith James Carroll Kevin Seppi Tony Martinez Turning Bayesian Model Averaging into Bayesian Model Combination Proceedings of the International Joint Conference on Neural Networks IJCNN 11 2011 S 2657 2663 Saso Dzeroski Bernard Zenko Is Combining Classifiers Better than Selecting the Best One Machine Learning 2004 Hilan Bensusan Christophe G Giraud Carrier Discovering Task Neighbourhoods Through Landmark Learning Performances PKDD 00 Proceedings of the 4th European Conference on Principles of Data Mining and Knowledge Discovery Springer Verlag 2000 Smyth P Wolpert D H Linearly Combining Density Estimators via Stacking Machine Learning Journal 1999 T 36 Wolpert D H Macready W G An Efficient Method to Estimate Bagging s Generalization Error Machine Learning Journal 1999 T 35 Clarke B Bayes model averaging and stacking when model approximation error cannot be ignored Journal of Machine Learning Research 2003 Wolpert D Stacked Generalization Neural Networks 1992 T 5 vip 2 Breiman L Stacked Regression Machine Learning 1996 T 24 DOI 10 1007 BF00117832 Ozay M Yarman Vural F T A New Fuzzy Stacked Generalization Technique and Analysis of its Performance 2013 arXiv 1204 0171 Bibcode 2012arXiv1204 0171O Sill J Takacs G Mackey L Lin D Feature Weighted Linear Stacking 2009 arXiv 0911 0460 Bibcode 2009arXiv0911 0460S Shahram M Amini Christopher F Parmeter Bayesian model averaging in R Journal of Economic and Social Measurement 2011 T 36 vip 4 Michal Wozniak Manuel Grana Emilio Corchado A survey of multiple classifier systems as hybrid systems Information Fusion 2014 T 16 March DOI 10 1016 j inffus 2013 04 006 Rodriguez Galiano V F Ghimire B Rogan J Chica Olmo M Rigol Sanchez J P An assessment of the effectiveness of a random forest classifier for land cover classification ISPRS Journal of Photogrammetry and Remote Sensing 2012 T 67 Bibcode 2012JPRS 67 93R DOI 10 1016 j isprsjprs 2011 11 002 Giorgio Giacinto Fabio Roli Design of effective neural network ensembles for image classification purposes Image and Vision Computing 2001 T 19 vip 9 10 August DOI 10 1016 S0262 8856 01 00045 2 Junshi Xia Naoto Yokoya Yakira Iwasaki A novel ensemble classifier of hyperspectral and LiDAR data using morphological features 2017 IEEE International Conference on Acoustics Speech and Signal Processing ICASSP 2017 March DOI 10 1109 ICASSP 2017 7953345 Mochizuki S Murakami T Accuracy comparison of land cover mapping using the object oriented image classification with machine learning algorithms 33rd Asian Conference on Remote Sensing 2012 ACRS 2012 2012 T 1 November Giacinto G Roli F Fumera G Design of effective multiple classifier systems by clustering of classifiers Proceedings 15th International Conference on Pattern Recognition ICPR 2000 2000 September DOI 10 1109 ICPR 2000 906039 Peijun Du Sicong Liu Junshi Xia Yindi Zhao Information fusion techniques for change detection from multi temporal remote sensing images Information Fusion 2013 T 14 vip 1 January DOI 10 1016 j inffus 2012 05 003 Lorenzo Bruzzone Roberto Cossu Gianni Vernazza Combining parametric and non parametric algorithms for a partially unsupervised classification of multitemporal remote sensing images Information Fusion 2002 T 3 vip 4 December DOI 10 1016 S1566 2535 02 00091 X P Arun Raj Kumar S Selvakumar Distributed denial of service attack detection using an ensemble of neural classifier Computer Communications 2011 T 34 vip 11 July DOI 10 1016 j comcom 2011 01 012 Asaf Shabtai Robert Moskovitch Yuval Elovici Chanan Glezer Detection of malicious code by applying machine learning classifiers on static features A state of the art survey Information Security Technical Report 2009 T 14 vip 1 February DOI 10 1016 j istr 2009 03 003 Boyun Zhang Jianping Yin Jingbo Hao Dingxing Zhang Shulin Wang Malicious Codes Detection Based on Ensemble Learning Autonomic and Trusted Computing 2007 DOI 10 1007 978 3 540 73547 2 48 Eitan Menahem Asaf Shabtai Lior Rokach Yuval Elovici Improving malware detection by applying multi inducer ensemble Computational Statistics amp Data Analysis 2009 T 53 vip 4 February DOI 10 1016 j csda 2008 10 015 Michael E Locasto Ke Wang Angeles D Keromytis J Stolfo Salvatore FLIPS Hybrid Adaptive Intrusion Prevention Recent Advances in Intrusion Detection 2005 DOI 10 1007 11663812 5 Giorgio Giacinto Roberto Perdisci Mauro Del Rio Fabio Roli Intrusion detection in computer networks by a modular ensemble of one class classifiers Information Fusion 2008 T 9 vip 1 January DOI 10 1016 j inffus 2006 10 002 Xiaoyan Mu Jiangfeng Lu Paul Watta Mohamad H Hassoun Weighted voting based ensemble classifiers with application to human face recognition and voice recognition 2009 International Joint Conference on Neural Networks 2009 July DOI 10 1109 IJCNN 2009 5178708 Su Yu Shiguang Shan Xilin Chen Wen Gao Hierarchical ensemble of Gabor Fisher classifier for face recognition Automatic Face and Gesture Recognition 2006 FGR 2006 7th International Conference on Automatic Face and Gesture Recognition FGR06 2006 April DOI 10 1109 FGR 2006 64 Su Yu Shiguang Shan Xilin Chen Wen Gao Patch based gabor fisher classifier for face recognition Proceedings International Conference on Pattern Recognition 2006 T 2 September DOI 10 1109 ICPR 2006 917 Yang Liu Yongzheng Lin Yuehui Chen Ensemble Classification Based on ICA for Face Recognition Proceedings 1st International Congress on Image and Signal Processing IEEE Conference CISP 2008 2008 July DOI 10 1109 CISP 2008 581 Steven A Rieger Rajani Muraleedharan Ravi P Ramachandran Speech based emotion recognition using spectral feature extraction and an ensemble of kNN classifiers Proceedings of the 9th International Symposium on Chinese Spoken Language Processing ISCSLP 2014 2014 DOI 10 1109 ISCSLP 2014 6936711 Jarek Krajewski Anton Batliner Silke Kessel Comparing Multiple Classifiers for Speech Based Detection of Self Confidence A Pilot Study 20th International Conference on Pattern Recognition 2010 DOI 10 1109 ICPR 2010 905 P Ithaya Rani K Muneeswaran Recognize the facial emotion in video sequences using eye and mouth temporal Gabor features Multimedia Tools and Applications 2016 T 76 vip 7 May DOI 10 1007 s11042 016 3592 y P Ithaya Rani K Muneeswaran Facial Emotion Recognition Based on Eye and Mouth Regions International Journal of Pattern Recognition and Artificial Intelligence 2016 T 30 vip 07 August DOI 10 1142 S021800141655020X P Ithaya Rani K Muneeswaran Emotion recognition based on facial components Sadhana 2018 T 43 vip 3 March DOI 10 1007 s12046 018 0801 6 Francisco Louzada Anderson Ara Bagging k dependence probabilistic networks An alternative powerful fraud detection tool Expert Systems with Applications 2012 T 39 vip 14 October DOI 10 1016 j eswa 2012 04 024 G Ganesh Sundarkumar Vadlamani Ravi A novel hybrid undersampling method for mining unbalanced datasets in banking and insurance Engineering Applications of Artificial Intelligence 2015 T 37 January DOI 10 1016 j engappai 2014 09 019 Yoonseong Kim So Young Sohn Stock fraud detection using peer group analysis Expert Systems with Applications 2012 T 39 vip 10 August DOI 10 1016 j eswa 2012 02 025 Stattya author Yoonseong Kim So Young Sohn ref Kim Sohn title Stock fraud detection using peer group analysis vidannya Expert Systems with Applications misyac August rik 2012 tom 39 issue 10 doi 10 1016 j eswa 2012 02 025rik Savio A Garcia Sebastian M T Chyzyk D Hernandez C Grana M Sistiaga A Lopez de Munain A Villanua J Neurocognitive disorder detection based on feature vectors extracted from VBM analysis of structural MRI Computers in Biology and Medicine 2011 T 41 vip 8 August DOI 10 1016 j compbiomed 2011 05 010 Ayerdi B Savio A Grana M Meta ensembles of classifiers for Alzheimer s disease detection using independent ROI features Lecture Notes in Computer Science including subseries Lecture Notes in Artificial Intelligence and Lecture Notes in Bioinformatics 2013 Vip Part 2 June DOI 10 1007 978 3 642 38622 0 13 Quan Gu Yong Sheng Ding Tong Liang Zhang An ensemble classifier based prediction of G protein coupled receptor classes in low homology Neurocomputing 2015 T 154 April DOI 10 1016 j neucom 2014 12 013 Zhou Zhihua Ensemble Methods Foundations and Algorithms Chapman and Hall CRC 2012 ISBN 978 1 439 83003 1 Robert Schapire Yoav Freund Boosting Foundations and Algorithms MIT 2012 ISBN 978 0 262 01718 3 Otrimano z https uk wikipedia org w index php title Ansambleve navchannya amp oldid 43699837