У статистиці, поліноміальна регресія є однією з форм регресійного аналізу, в якому залежність між незалежною змінною x і залежною змінною y моделюється як поліном від x ступеню n. Поліноміальна регресія відповідає нелінійній залежності між значенням x та відповідним умовним математичним сподіванням y, що позначається E(y |x). Хоча поліноміальна регресія налаштовує нелінійній моделі даних, з боку теорії оцінювання ця задача є лінійною, в тому сенсі, що функція регресії E(y | x) є лінійною за невідомих параметрів які оцінюються за даними. З цього приводу поліноміальна регресія вважається приватним випадком множинної лінійної регресії.
Пояснювальні (незалежні) змінні, що є результатом поліноміального розширення «базових» змінних, відомі як терміни вищого ступеня. Такі змінні також використовуються в налаштуваннях класифікації.
Історія
Поліноміальні регресійні моделі, як правило, налаштовують за допомогою методу найменших квадратів. Метод найменших квадратів мінімізує дисперсію незміщених оцінок коефіцієнтів за умов теореми Гаусса-Маркова. Метод найменших квадратів був опублікований в 1805 році Лежандром і в 1809 році Гауссом. Перший опис експерименту для поліноміальної регресії з'явився в 1815 році у статті . У ХХ столітті поліноміальна регресія відіграла важливу роль у розвитку регресійного аналізу, з більшим акцентом на питаннях Планування експерименту та статистичному висновуванні. Зовсім недавно використання поліноміальних моделей було доповнено іншими методами, причому неполіноміальні моделі мають переваги для деяких класів задач.[]
Визначення та приклад
Метою регресійного аналізу є моделювання очікуваного значення залежної змінної y через значення незалежної змінної (або вектора незалежних змінних) x. У простій лінійній регресії використовується модель
де ε невизначена випадкова помилка із середнім нулем, обумовленим скалярною змінною x. У цій моделі для кожної одиниці збільшення значення x, умовне сподівання y збільшується на β1 одиниць.
У багатьох умовах такий лінійний зв'язок може не мати місце. Наприклад, якщо ми моделюємо вихід хімічного синтезу з точки зору температури, при якій відбувається синтез, ми можемо виявити, що вихід поліпшується за рахунок збільшення кількості для кожної одиниці підвищення температури. У цьому випадку ми можемо запропонувати квадратичну модель форми
У цій моделі при підвищенні температури від x до x + 1 одиниць очікуваний вихід змінюється на (Це можна побачити, замінивши x у цьому рівнянні на x+1 і віднявши рівняння з x з рівняння з x+1.) Для нескінченно малих змін x, вплив на y дається повною похідною по x: . Той факт, що зміна результату залежить від x є тим, що робить зв'язок між x та y нелінійним, навіть незважаючи на те, що модель є лінійною за параметрами, що підлягають оцінці.
Загалом, ми можемо змоделювати очікуване значення y як поліном ступеню n, отримуючи загальну модель поліноміальної регресії
Зручно, всі ці моделі є лінійними з точки зору оцінки, оскільки функція регресії є лінійною з точки зору невідомих параметрів β0, β1, …. Таким чином, для аналізу методом найменших квадратів, обчислювальні та виведені задачі поліноміальної регресії можут бути повністю вирішені за допомогою методів лінійної регресії. Це робиться шляхом обробки x, x2, … як окремих незалежних змінних у моделі множинної регресії.
Матрична форма та розрахунок оцінок
Модель поліноміальної регресії
може бути виражена у матричній формі через матрицю проектування , вектор відповіді , вектор параметрів та вектор випадкових помилок. I-тий рядок and міститиме значення x та y для i-го рядка вибірки даних. Тоді модель можна записати як систему лінійних рівнянь:
що при використанні чисто матричної нотації записується як
Вектор розрахункових коефіцієнтів поліноміальної регресії (за допомогою оцінки звичайних найменших квадратів) становить
припускаючи m < n щоб матриця була оборотною, оскільки є визначником Вандермонда, умова оберненості гарантовано буде виконуватися, якщо всі значення різні. Це унікальне рішення методом найменших квадратів.
Інтерпретація
Хоча поліноміальна регресія технічно є частковим випадком багаторазової лінійної регресії, інтерпретація побудованої моделі поліноміальної регресії вимагає дещо іншої перспективи. Часто буває важко інтерпретувати окремі коефіцієнти в поліноміальній регресії, оскільки основні одночлени можуть бути високо корельованими. Наприклад, x та x2 мають кореляцію близько 0.97 коли x рівномірно розподіляється на інтервалі (0, 1). Хоча кореляцію можна зменшити за допомогою ортогональних поліномів, загалом більш інформативно розглядати побудовану функцію регресії в цілому. Поточкові або одночасні довірчі смуги потім можуть бути використані для забезпечення відчуття невизначеності в оцінці функції регресії.
Альтернативні підходи
Поліноміальна регресія є одним із прикладів регресійного аналізу з використанням базисних функцій для моделювання функціональної залежності між двома величинами. Більш конкретно, вона замінює в лінійній регресії з поліноміальною основою , наприклад, . Недоліком поліноміальних основ є те, що базисні функції є «нелокальними», тобто налаштоване значення y при заданому значенні x = x0 сильно залежить від значень даних з x далеких від x0. У сучасній статистиці поліноміальні базисні функції використовуються поряд з новими базисними функціями, такими як сплайни, радіальна базисні функції та вейвлети. Ці сімейства базисних функцій пропонують більш ощадливу налаштованість багатьом типам даних.
Метою поліноміальної регресії є моделювання нелінійної залежності між незалежними та залежними змінними (технічно, між незалежною змінною та умовним середнім значенням залежної змінної). Це схоже на мету , яка спрямована на охоплення нелінійних відношень регресії. Тому непараметричні підходи до регресії, такі як згладжування можуть бути корисними альтернативами поліноміальної регресії. Деякі з цих методів використовують локалізовану форму класичної поліноміальної регресі. Перевага традиційної поліноміальної регресії полягає в тому, що можна використовувати вивідну структуру множинної регресії (це також має місце при використанні інших сімейств базисних функцій, таких як сплайни).
Кінцевою альтернативою є використання ядрових моделей таких як метод опорних векторів з .
Якщо залишки мають неоднакову дисперсію, тоді для оцінки може бути використаний метод зважених найменших квадратів.
Див. також
- [en]
- Лінійна регресія
- [en]
- [en]
- Поліноміальна інтерполяція
- Метод Бокса — Вілсона
Примітки
- Microsoft Excel використовує поліноміальну регресію при підборі лінії тренду до точок даних на графіку розсіювання XY.
Посилання
- Yin-Wen Chang; Cho-Jui Hsieh; Kai-Wei Chang; Michael Ringgaard; Chih-Jen Lin (2010). . Journal of Machine Learning Research. 11: 1471—1490. Архів оригіналу за 21 листопада 2020. Процитовано 15 листопада 2020.
- (November 1974) [1815]. The application of the method of least squares to the interpolation of sequences. Historia Mathematica (вид. Translated by Ralph St. John and from the 1815 French). 1 (4): 439—447. doi:10.1016/0315-0860(74)90034-2.
- (November 1974). Gergonne's 1815 paper on the design and analysis of polynomial regression experiments. Historia Mathematica. 1 (4): 431—439. doi:10.1016/0315-0860(74)90033-0.
- Smith, Kirstine (1918). . Biometrika. 12 (1/2): 1—85. doi:10.2307/2331929. JSTOR 2331929. Архів оригіналу за 31 жовтня 2020. Процитовано 15 листопада 2020.
- Така «нелокальна» поведінка є властивістю аналітичних функцій, які не є постійними (всюди). Така «нелокальна» поведінка широко обговорюється в статистиці: * Magee, Lonnie (1998). Nonlocal Behavior in Polynomial Regressions. The American Statistician. 52 (1): 20—22. doi:10.2307/2685560. JSTOR 2685560.
- Fan, Jianqing (1996). Local Polynomial Modelling and Its Applications: From linear regression to nonlinear regression. Monographs on Statistics and Applied Probability. Chapman & Hall/CRC. ISBN .
- Conte, S.D.; De Boor, C. (2018). Elementary Numerical Analysis: An Algorithmic Approach. Classics in Applied Mathematics. Society for Industrial and Applied Mathematics (SIAM, 3600 Market Street, Floor 6, Philadelphia, PA 19104). с. 259. ISBN . Процитовано 28 серпня 2020.
- Stevenson, Christopher. . facultystaff.richmond.edu. Архів оригіналу за 2 червня 2013. Процитовано 22 січня 2017.
Ця стаття є сирим з англійської мови. Можливо, вона створена за допомогою машинного перекладу або перекладачем, який недостатньо володіє обома мовами. (листопад 2020) |
Цю статтю треба для відповідності Вікіпедії. (листопад 2020) |
Ця стаття не містить . (листопад 2020) |
В іншому мовному розділі є повніша стаття Polynomial regression(англ.). Ви можете допомогти, розширивши поточну статтю за допомогою з англійської.
|
Це незавершена стаття зі статистики. Ви можете проєкту, виправивши або дописавши її. |
Вікіпедія, Українська, Україна, книга, книги, бібліотека, стаття, читати, завантажити, безкоштовно, безкоштовно завантажити, mp3, відео, mp4, 3gp, jpg, jpeg, gif, png, малюнок, музика, пісня, фільм, книга, гра, ігри, мобільний, телефон, android, ios, apple, мобільний телефон, samsung, iphone, xiomi, xiaomi, redmi, honor, oppo, nokia, sonya, mi, ПК, web, Інтернет
U statistici polinomialna regresiya ye odniyeyu z form regresijnogo analizu v yakomu zalezhnist mizh nezalezhnoyu zminnoyu x i zalezhnoyu zminnoyu y modelyuyetsya yak polinom vid x stupenyu n Polinomialna regresiya vidpovidaye nelinijnij zalezhnosti mizh znachennyam x ta vidpovidnim umovnim matematichnim spodivannyam y sho poznachayetsya E y x Hocha polinomialna regresiya nalashtovuye nelinijnij modeli danih z boku teoriyi ocinyuvannya cya zadacha ye linijnoyu v tomu sensi sho funkciya regresiyi E y x ye linijnoyu za nevidomih parametriv yaki ocinyuyutsya za danimi Z cogo privodu polinomialna regresiya vvazhayetsya privatnim vipadkom mnozhinnoyi linijnoyi regresiyi Poyasnyuvalni nezalezhni zminni sho ye rezultatom polinomialnogo rozshirennya bazovih zminnih vidomi yak termini vishogo stupenya Taki zminni takozh vikoristovuyutsya v nalashtuvannyah klasifikaciyi IstoriyaPolinomialni regresijni modeli yak pravilo nalashtovuyut za dopomogoyu metodu najmenshih kvadrativ Metod najmenshih kvadrativ minimizuye dispersiyu nezmishenih ocinok koeficiyentiv za umov teoremi Gaussa Markova Metod najmenshih kvadrativ buv opublikovanij v 1805 roci Lezhandrom i v 1809 roci Gaussom Pershij opis eksperimentu dlya polinomialnoyi regresiyi z yavivsya v 1815 roci u statti U HH stolitti polinomialna regresiya vidigrala vazhlivu rol u rozvitku regresijnogo analizu z bilshim akcentom na pitannyah Planuvannya eksperimentu ta statistichnomu visnovuvanni Zovsim nedavno vikoristannya polinomialnih modelej bulo dopovneno inshimi metodami prichomu nepolinomialni modeli mayut perevagi dlya deyakih klasiv zadach dzherelo Viznachennya ta prikladKubichna polinomialna regresiya dopasovana do zimitovanogo naboru danih Dovircha smuga ye odnochasno 95 voyu dovirchoyu smugoyu pobudovanoyu z vikoristannyam pidhodu en Metoyu regresijnogo analizu ye modelyuvannya ochikuvanogo znachennya zalezhnoyi zminnoyi y cherez znachennya nezalezhnoyi zminnoyi abo vektora nezalezhnih zminnih x U prostij linijnij regresiyi vikoristovuyetsya model y b0 b1x e displaystyle y beta 0 beta 1 x varepsilon de e neviznachena vipadkova pomilka iz serednim nulem obumovlenim skalyarnoyu zminnoyu x U cij modeli dlya kozhnoyi odinici zbilshennya znachennya x umovne spodivannya y zbilshuyetsya na b1 odinic U bagatoh umovah takij linijnij zv yazok mozhe ne mati misce Napriklad yaksho mi modelyuyemo vihid himichnogo sintezu z tochki zoru temperaturi pri yakij vidbuvayetsya sintez mi mozhemo viyaviti sho vihid polipshuyetsya za rahunok zbilshennya kilkosti dlya kozhnoyi odinici pidvishennya temperaturi U comu vipadku mi mozhemo zaproponuvati kvadratichnu model formi y b0 b1x b2x2 e displaystyle y beta 0 beta 1 x beta 2 x 2 varepsilon U cij modeli pri pidvishenni temperaturi vid x do x 1 odinic ochikuvanij vihid zminyuyetsya na b1 b2 2x 1 displaystyle beta 1 beta 2 2x 1 Ce mozhna pobachiti zaminivshi x u comu rivnyanni na x 1 i vidnyavshi rivnyannya z x z rivnyannya z x 1 Dlya neskinchenno malih zmin x vpliv na y dayetsya povnoyu pohidnoyu po x b1 2b2x displaystyle beta 1 2 beta 2 x Toj fakt sho zmina rezultatu zalezhit vid x ye tim sho robit zv yazok mizh x ta y nelinijnim navit nezvazhayuchi na te sho model ye linijnoyu za parametrami sho pidlyagayut ocinci Zagalom mi mozhemo zmodelyuvati ochikuvane znachennya y yak polinom stupenyu n otrimuyuchi zagalnu model polinomialnoyi regresiyi y b0 b1x b2x2 b3x3 bnxn e displaystyle y beta 0 beta 1 x beta 2 x 2 beta 3 x 3 cdots beta n x n varepsilon Zruchno vsi ci modeli ye linijnimi z tochki zoru ocinki oskilki funkciya regresiyi ye linijnoyu z tochki zoru nevidomih parametriv b0 b1 Takim chinom dlya analizu metodom najmenshih kvadrativ obchislyuvalni ta vivedeni zadachi polinomialnoyi regresiyi mozhut buti povnistyu virisheni za dopomogoyu metodiv linijnoyi regresiyi Ce robitsya shlyahom obrobki x x2 yak okremih nezalezhnih zminnih u modeli mnozhinnoyi regresiyi Matrichna forma ta rozrahunok ocinokModel polinomialnoyi regresiyi yi b0 b1xi b2xi2 bmxim ei i 1 2 n displaystyle y i beta 0 beta 1 x i beta 2 x i 2 cdots beta m x i m varepsilon i i 1 2 dots n mozhe buti virazhena u matrichnij formi cherez matricyu proektuvannya X displaystyle mathbf X vektor vidpovidi y displaystyle vec y vektor parametriv b displaystyle vec beta ta vektor e displaystyle vec varepsilon vipadkovih pomilok I tij ryadok X displaystyle mathbf X and y displaystyle vec y mistitime znachennya x ta y dlya i go ryadka vibirki danih Todi model mozhna zapisati yak sistemu linijnih rivnyan y1y2y3 yn 1x1x12 x1m1x2x22 x2m1x3x32 x3m 1xnxn2 xnm b0b1b2 bm e1e2e3 en displaystyle begin bmatrix y 1 y 2 y 3 vdots y n end bmatrix begin bmatrix 1 amp x 1 amp x 1 2 amp dots amp x 1 m 1 amp x 2 amp x 2 2 amp dots amp x 2 m 1 amp x 3 amp x 3 2 amp dots amp x 3 m vdots amp vdots amp vdots amp ddots amp vdots 1 amp x n amp x n 2 amp dots amp x n m end bmatrix begin bmatrix beta 0 beta 1 beta 2 vdots beta m end bmatrix begin bmatrix varepsilon 1 varepsilon 2 varepsilon 3 vdots varepsilon n end bmatrix sho pri vikoristanni chisto matrichnoyi notaciyi zapisuyetsya yak y Xb e displaystyle vec y mathbf X vec beta vec varepsilon Vektor rozrahunkovih koeficiyentiv polinomialnoyi regresiyi za dopomogoyu ocinki zvichajnih najmenshih kvadrativ stanovit b XTX 1XTy displaystyle widehat vec beta mathbf X mathsf T mathbf X 1 mathbf X mathsf T vec y pripuskayuchi m lt n shob matricya bula oborotnoyu oskilki X displaystyle mathbf X ye viznachnikom Vandermonda umova obernenosti garantovano bude vikonuvatisya yaksho vsi znachennya xi displaystyle x i rizni Ce unikalne rishennya metodom najmenshih kvadrativ InterpretaciyaHocha polinomialna regresiya tehnichno ye chastkovim vipadkom bagatorazovoyi linijnoyi regresiyi interpretaciya pobudovanoyi modeli polinomialnoyi regresiyi vimagaye desho inshoyi perspektivi Chasto buvaye vazhko interpretuvati okremi koeficiyenti v polinomialnij regresiyi oskilki osnovni odnochleni mozhut buti visoko korelovanimi Napriklad x ta x2 mayut korelyaciyu blizko 0 97 koli x rivnomirno rozpodilyayetsya na intervali 0 1 Hocha korelyaciyu mozhna zmenshiti za dopomogoyu ortogonalnih polinomiv zagalom bilsh informativno rozglyadati pobudovanu funkciyu regresiyi v cilomu Potochkovi abo odnochasni dovirchi smugi potim mozhut buti vikoristani dlya zabezpechennya vidchuttya neviznachenosti v ocinci funkciyi regresiyi Alternativni pidhodiPolinomialna regresiya ye odnim iz prikladiv regresijnogo analizu z vikoristannyam bazisnih funkcij dlya modelyuvannya funkcionalnoyi zalezhnosti mizh dvoma velichinami Bilsh konkretno vona zaminyuye x Rdx displaystyle x in mathbb R d x v linijnij regresiyi z polinomialnoyu osnovoyu f x Rdf displaystyle varphi x in mathbb R d varphi napriklad 1 x f 1 x x2 xd displaystyle 1 x mathbin stackrel varphi rightarrow 1 x x 2 ldots x d Nedolikom polinomialnih osnov ye te sho bazisni funkciyi ye nelokalnimi tobto nalashtovane znachennya y pri zadanomu znachenni x x0 silno zalezhit vid znachen danih z x dalekih vid x0 U suchasnij statistici polinomialni bazisni funkciyi vikoristovuyutsya poryad z novimi bazisnimi funkciyami takimi yak splajni radialna bazisni funkciyi ta vejvleti Ci simejstva bazisnih funkcij proponuyut bilsh oshadlivu nalashtovanist bagatom tipam danih Metoyu polinomialnoyi regresiyi ye modelyuvannya nelinijnoyi zalezhnosti mizh nezalezhnimi ta zalezhnimi zminnimi tehnichno mizh nezalezhnoyu zminnoyu ta umovnim serednim znachennyam zalezhnoyi zminnoyi Ce shozhe na metu yaka spryamovana na ohoplennya nelinijnih vidnoshen regresiyi Tomu neparametrichni pidhodi do regresiyi taki yak zgladzhuvannya mozhut buti korisnimi alternativami polinomialnoyi regresiyi Deyaki z cih metodiv vikoristovuyut lokalizovanu formu klasichnoyi polinomialnoyi regresi Perevaga tradicijnoyi polinomialnoyi regresiyi polyagaye v tomu sho mozhna vikoristovuvati vividnu strukturu mnozhinnoyi regresiyi ce takozh maye misce pri vikoristanni inshih simejstv bazisnih funkcij takih yak splajni Kincevoyu alternativoyu ye vikoristannya yadrovih modelej takih yak metod opornih vektoriv z Yaksho zalishki mayut neodnakovu dispersiyu todi dlya ocinki mozhe buti vikoristanij metod zvazhenih najmenshih kvadrativ Div takozh en Linijna regresiya en en Polinomialna interpolyaciya Metod Boksa VilsonaPrimitkiMicrosoft Excel vikoristovuye polinomialnu regresiyu pri pidbori liniyi trendu do tochok danih na grafiku rozsiyuvannya XY PosilannyaYin Wen Chang Cho Jui Hsieh Kai Wei Chang Michael Ringgaard Chih Jen Lin 2010 Journal of Machine Learning Research 11 1471 1490 Arhiv originalu za 21 listopada 2020 Procitovano 15 listopada 2020 November 1974 1815 The application of the method of least squares to the interpolation of sequences Historia Mathematica vid Translated by Ralph St John and from the 1815 French 1 4 439 447 doi 10 1016 0315 0860 74 90034 2 November 1974 Gergonne s 1815 paper on the design and analysis of polynomial regression experiments Historia Mathematica 1 4 431 439 doi 10 1016 0315 0860 74 90033 0 Smith Kirstine 1918 Biometrika 12 1 2 1 85 doi 10 2307 2331929 JSTOR 2331929 Arhiv originalu za 31 zhovtnya 2020 Procitovano 15 listopada 2020 Taka nelokalna povedinka ye vlastivistyu analitichnih funkcij yaki ne ye postijnimi vsyudi Taka nelokalna povedinka shiroko obgovoryuyetsya v statistici Magee Lonnie 1998 Nonlocal Behavior in Polynomial Regressions The American Statistician 52 1 20 22 doi 10 2307 2685560 JSTOR 2685560 Fan Jianqing 1996 Local Polynomial Modelling and Its Applications From linear regression to nonlinear regression Monographs on Statistics and Applied Probability Chapman amp Hall CRC ISBN 978 0 412 98321 4 Conte S D De Boor C 2018 Elementary Numerical Analysis An Algorithmic Approach Classics in Applied Mathematics Society for Industrial and Applied Mathematics SIAM 3600 Market Street Floor 6 Philadelphia PA 19104 s 259 ISBN 978 1 61197 520 8 Procitovano 28 serpnya 2020 Stevenson Christopher facultystaff richmond edu Arhiv originalu za 2 chervnya 2013 Procitovano 22 sichnya 2017 Cya stattya ye sirim perekladom z anglijskoyi movi Mozhlivo vona stvorena za dopomogoyu mashinnogo perekladu abo perekladachem yakij nedostatno volodiye oboma movami Bud laska dopomozhit polipshiti pereklad listopad 2020 Cyu stattyu treba vikifikuvati dlya vidpovidnosti standartam yakosti Vikipediyi Bud laska dopomozhit dodavannyam dorechnih vnutrishnih posilan abo vdoskonalennyam rozmitki statti listopad 2020 Cya stattya ne mistit posilan na dzherela Vi mozhete dopomogti polipshiti cyu stattyu dodavshi posilannya na nadijni avtoritetni dzherela Material bez dzherel mozhe buti piddano sumnivu ta vilucheno listopad 2020 V inshomu movnomu rozdili ye povnisha stattya Polynomial regression angl Vi mozhete dopomogti rozshirivshi potochnu stattyu za dopomogoyu perekladu z anglijskoyi Ne perekladajte tekst yakij vidayetsya nedostovirnim abo neyakisnim Yaksho mozhlivo perevirte tekst za posilannyami podanimi v inshomovnij statti Dokladni rekomendaciyi div Vikipediya Pereklad Ce nezavershena stattya zi statistiki Vi mozhete dopomogti proyektu vipravivshi abo dopisavshi yiyi