XGBoost (від англ. eXtreme Gradient Boosting, екстремальне градієнтне підсилювання) — це програмна бібліотека з відкритим кодом, яка пропонує систему [en] для , Java, Python, R, Julia, Perl, та Scala. Вона працює під Linux, Windows та macOS. З опису її проекту, вона має на меті забезпечити «Масштабовану Портативну та Розподілену Бібліотеку Градієнтного Підсилювання (GBM, GBRT, GBDT)». Вона працює як на одній машині, так і підтримує системи розподіленої обробки Apache Hadoop, Apache Spark та [en]. Вона нещодавно набула великої популярності та уваги як вибір алгоритму багатьох команд-переможниць змагань з машинного навчання.
Тип | Машинне навчання |
---|---|
Розробник | The XGBoost Contributors |
Перший випуск | 27 березня 2014 |
Стабільний випуск | 1.2.1 (13 жовтня 2020 ) |
Операційна система | Linux, macOS, Windows |
Мова програмування | |
Ліцензія | Apache License 2.0 |
Репозиторій | github.com/dmlc/xgboost |
Вебсайт | xgboost.ai |
Історія
XGBoost первинно було розпочато як дослідницький проект Тенці Чжена (англ. Tianqi Chen) у складі групи Спільноти Розподіленого (Глибинного) Машинного Навчання (англ. Distributed [Deep] Machine Learning Community, DMLC). Первинно вона почалася як консольна програма, яку могло бути налаштовано за допомогою файлу налаштування libsvm. Вона стала добре відомою в колах змагань з машинного навчання через її застосування в переможному рішенні в Higgs Machine Learning Challenge. Незабаром після цього було побудовано пакети Python та R, а тепер XGBoost має пакетні втілення і для Java, Scala, Julia, Perl та інших мов. Це донесло дану бібліотеку до більшої кількості розробників, і посприяло її популярності серед спільноти Kaggle, де її було використано для великої кількості змагань.
Незабаром її було інтегровано з рядом інших пакетів, що полегшило її використання у їхніх відповідних спільнотах. Її тепер вже інтегровано зі scikit-learn для користувачів Python та з пакетом caret [ 26 січня 2021 у Wayback Machine.] для користувачів R. Її також можливо вбудовувати до таких систем потокової обробки даних як Apache Spark, Apache Hadoop та [en] за допомогою абстрагованих Rabit та XGBoost4J. XGBoost є також доступною в OpenCL для ПКВМ. Ефективне, масштабоване втілення XGBoost було опубліковано Тенці Чженом та Карлосом Ґестріном.
Властивості
До важливих властивостей XGBoost, які відрізняють її від інших алгоритмів підсилювання градієнту, належать:
- Розумне штрафування дерев
- Пропорційне скорочування листових вузлів
- Ньютонове підсилювання
- Додатковий параметр рандомізації
- Втілення на окремих, розподілених системах, та [en] обчисленнях.
Нагороди
- Премія [en] (2016)
- Премія High Energy Physics meets Machine Learning (HEP meets ML) (2016)
Див. також
- [en]
Примітки
- . GitHub (англ.). Архів оригіналу за 31 січня 2022. Процитовано 8 серпня 2020.
- . Архів оригіналу за 1 квітня 2021. Процитовано 8 травня 2018.
- . Архів оригіналу за 23 серпня 2017. Процитовано 1 серпня 2016.
- . Архів оригіналу за 26 жовтня 2018. Процитовано 1 серпня 2016.
- . Архів оригіналу за 18 серпня 2016. Процитовано 1 серпня 2016.
- . Архів оригіналу за 28 березня 2020. Процитовано 9 лютого 2020.
- . Архів оригіналу за 8 травня 2018. Процитовано 1 серпня 2016. (англ.)
- . Архів оригіналу за 8 травня 2018. Процитовано 1 серпня 2016. (англ.)
- . Архів оригіналу за 24 серпня 2017. Процитовано 1 серпня 2016. (англ.)
- . Архів оригіналу за 7 серпня 2016. Процитовано 1 серпня 2016. (англ.)
- . Архів оригіналу за 11 червня 2018. Процитовано 1 серпня 2016.
- . Архів оригіналу за 8 травня 2018. Процитовано 1 серпня 2016.
- . Архів оригіналу за 13 вересня 2020. Процитовано 1 серпня 2019. (англ.)
- Chen, Tianqi; Guestrin, Carlos (2016). XGBoost: A Scalable Tree Boosting System. У Krishnapuram, Balaji; Shah, Mohak; Smola, Alexander J.; Aggarwal, Charu C.; Shen, Dou; Rastogi, Rajeev (ред.). Proceedings of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining, San Francisco, CA, USA, August 13-17, 2016. ACM. с. 785—794. arXiv:1603.02754. doi:10.1145/2939672.2939785. (англ.)
- Gandhi, Rohith (24 травня 2019). . Medium (англ.). Архів оригіналу за 28 березня 2020. Процитовано 4 січня 2020. (англ.)
- Boosting algorithm: XGBoost. Towards Data Science (англ.). 14 травня 2017. оригіналу за 6 квітня 2022. Процитовано 4 січня 2020. (англ.)
- Tree Boosting With XGBoost – Why Does XGBoost Win "Every" Machine Learning Competition?. Synced (амер.). 22 жовтня 2017. оригіналу за 28 березня 2020. Процитовано 4 січня 2020. (англ.)
- . Архів оригіналу за 31 липня 2017. Процитовано 1 серпня 2016. (англ.)
- . Архів оригіналу за 8 травня 2018. Процитовано 1 серпня 2016. (англ.)
Це незавершена стаття зі штучного інтелекту. Ви можете проєкту, виправивши або дописавши її. |
Вікіпедія, Українська, Україна, книга, книги, бібліотека, стаття, читати, завантажити, безкоштовно, безкоштовно завантажити, mp3, відео, mp4, 3gp, jpg, jpeg, gif, png, малюнок, музика, пісня, фільм, книга, гра, ігри, мобільний, телефон, android, ios, apple, мобільний телефон, samsung, iphone, xiomi, xiaomi, redmi, honor, oppo, nokia, sonya, mi, ПК, web, Інтернет
XGBoost vid angl eXtreme Gradient Boosting ekstremalne gradiyentne pidsilyuvannya ce programna biblioteka z vidkritim kodom yaka proponuye sistemu en dlya C Java Python R Julia Perl ta Scala Vona pracyuye pid Linux Windows ta macOS Z opisu yiyi proektu vona maye na meti zabezpechiti Masshtabovanu Portativnu ta Rozpodilenu Biblioteku Gradiyentnogo Pidsilyuvannya GBM GBRT GBDT Vona pracyuye yak na odnij mashini tak i pidtrimuye sistemi rozpodilenoyi obrobki Apache Hadoop Apache Spark ta en Vona neshodavno nabula velikoyi populyarnosti ta uvagi yak vibir algoritmu bagatoh komand peremozhnic zmagan z mashinnogo navchannya XGBoostTipMashinne navchannyaRozrobnikThe XGBoost ContributorsPershij vipusk27 bereznya 2014 10 rokiv tomu 2014 03 27 Stabilnij vipusk1 2 1 13 zhovtnya 2020 3 roki tomu 2020 10 13 Operacijna sistemaLinux macOS WindowsMova programuvannyaC LicenziyaApache License 2 0Repozitorijgithub com dmlc xgboostVebsajtxgboost aiIstoriyaXGBoost pervinno bulo rozpochato yak doslidnickij proekt Tenci Chzhena angl Tianqi Chen u skladi grupi Spilnoti Rozpodilenogo Glibinnogo Mashinnogo Navchannya angl Distributed Deep Machine Learning Community DMLC Pervinno vona pochalasya yak konsolna programa yaku moglo buti nalashtovano za dopomogoyu fajlu nalashtuvannya libsvm Vona stala dobre vidomoyu v kolah zmagan z mashinnogo navchannya cherez yiyi zastosuvannya v peremozhnomu rishenni v Higgs Machine Learning Challenge Nezabarom pislya cogo bulo pobudovano paketi Python ta R a teper XGBoost maye paketni vtilennya i dlya Java Scala Julia Perl ta inshih mov Ce doneslo danu biblioteku do bilshoyi kilkosti rozrobnikiv i pospriyalo yiyi populyarnosti sered spilnoti Kaggle de yiyi bulo vikoristano dlya velikoyi kilkosti zmagan Nezabarom yiyi bulo integrovano z ryadom inshih paketiv sho polegshilo yiyi vikoristannya u yihnih vidpovidnih spilnotah Yiyi teper vzhe integrovano zi scikit learn dlya koristuvachiv Python ta z paketom caret 26 sichnya 2021 u Wayback Machine dlya koristuvachiv R Yiyi takozh mozhlivo vbudovuvati do takih sistem potokovoyi obrobki danih yak Apache Spark Apache Hadoop ta en za dopomogoyu abstragovanih Rabit ta XGBoost4J XGBoost ye takozh dostupnoyu v OpenCL dlya PKVM Efektivne masshtabovane vtilennya XGBoost bulo opublikovano Tenci Chzhenom ta Karlosom Gestrinom VlastivostiDo vazhlivih vlastivostej XGBoost yaki vidriznyayut yiyi vid inshih algoritmiv pidsilyuvannya gradiyentu nalezhat Rozumne shtrafuvannya derev Proporcijne skorochuvannya listovih vuzliv Nyutonove pidsilyuvannya Dodatkovij parametr randomizaciyi Vtilennya na okremih rozpodilenih sistemah ta en obchislennyah NagorodiPremiya en 2016 Premiya High Energy Physics meets Machine Learning HEP meets ML 2016 Div takozh en Primitki GitHub angl Arhiv originalu za 31 sichnya 2022 Procitovano 8 serpnya 2020 Arhiv originalu za 1 kvitnya 2021 Procitovano 8 travnya 2018 Arhiv originalu za 23 serpnya 2017 Procitovano 1 serpnya 2016 Arhiv originalu za 26 zhovtnya 2018 Procitovano 1 serpnya 2016 Arhiv originalu za 18 serpnya 2016 Procitovano 1 serpnya 2016 Arhiv originalu za 28 bereznya 2020 Procitovano 9 lyutogo 2020 Arhiv originalu za 8 travnya 2018 Procitovano 1 serpnya 2016 angl Arhiv originalu za 8 travnya 2018 Procitovano 1 serpnya 2016 angl Arhiv originalu za 24 serpnya 2017 Procitovano 1 serpnya 2016 angl Arhiv originalu za 7 serpnya 2016 Procitovano 1 serpnya 2016 angl Arhiv originalu za 11 chervnya 2018 Procitovano 1 serpnya 2016 Arhiv originalu za 8 travnya 2018 Procitovano 1 serpnya 2016 Arhiv originalu za 13 veresnya 2020 Procitovano 1 serpnya 2019 angl Chen Tianqi Guestrin Carlos 2016 XGBoost A Scalable Tree Boosting System U Krishnapuram Balaji Shah Mohak Smola Alexander J Aggarwal Charu C Shen Dou Rastogi Rajeev red Proceedings of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining San Francisco CA USA August 13 17 2016 ACM s 785 794 arXiv 1603 02754 doi 10 1145 2939672 2939785 angl Gandhi Rohith 24 travnya 2019 Medium angl Arhiv originalu za 28 bereznya 2020 Procitovano 4 sichnya 2020 angl Boosting algorithm XGBoost Towards Data Science angl 14 travnya 2017 originalu za 6 kvitnya 2022 Procitovano 4 sichnya 2020 angl Tree Boosting With XGBoost Why Does XGBoost Win Every Machine Learning Competition Synced amer 22 zhovtnya 2017 originalu za 28 bereznya 2020 Procitovano 4 sichnya 2020 angl Arhiv originalu za 31 lipnya 2017 Procitovano 1 serpnya 2016 angl Arhiv originalu za 8 travnya 2018 Procitovano 1 serpnya 2016 angl Ce nezavershena stattya zi shtuchnogo intelektu Vi mozhete dopomogti proyektu vipravivshi abo dopisavshi yiyi