У статистиці, простою лінійною регресією є лінійна регресійна модель з однією незалежною змінною. Тобто, її розглядають у двовимірному просторі вибірки, утвореному однією незалежною змінною та однією залежною змінною (зазвичай х і у — координати в декартовій системі координат). Модель призначена для знаходження лінійної функції (не вертикальною прямої) залежності, яка якомога точніше прогнозує значення залежної змінної як функції незалежної змінної. Прикметник простий вказує на залежність залежної змінної від одного предиктора.
Далі в статті вважатимемо, що використовується звичайна регресія отримана методом найменшого квадратичного відхилення. У цьому випадку, нахил (кутовий коефіцієнт прямої) цієї прямої дорівнює кореляції між y і x скоригований на коефіцієнти стандартних відхилень цих змінних. Точка перетину отриманої лінії проходить через центр мас (x, y) даного набору точок.
Допасування регресійної лінії
Припустимо, що є n точок {(xi, yi), i = 1, …, n}. Функція, яка описує зв'язок х і y записується:
Завдання полягає в тому, щоб знайти рівняння прямої лінії
яка б забезпечувала «найкращий» допасування наявних точок даних. Тут під «найкращий» розуміємо в сенсі найменшого квадратичного відхилення: лінія, що мінімізує суму квадратів похибок лінійної регресійної моделі. Іншими словами, α (перетин з віссю y) і β (нахил) є розв'язком наступної задачі мінімізації:
Просто розкриваючи дужки у виразі отримуємо квадратичний вираз відносно α і β, можна показати, що значення α і β, які мінімізують цільову функцію Q записуються формулами:
де rxy — коефіцієнт кореляції між x і y; а sx і sy — це стандартні відхилення x і y. Горизонтальна риска над величиною вказує середнє значення цієї величини. Наприклад:
Підставляючи вирази і в
маємо
Це показує, що rxy — нахил регресійної лінії для стандартизованих точок вибірки (і ця лінія проходить через початок координат).
Іноді корисно вираховувати rxy даних з інших причин, використовуючи формулу:
Коефіцієнт детермінації (R-квадрат) дорівнює , коли маємо справу з лінійною моделлю з однією незалежною змінною. Докладніше в статті про коефіцієнт кореляції вибірки.
Чисельні властивості
- Регресійна лінія проходить через центр мас точок, , якщо модель включає в себе вільний член (тобто, не пересунена в початок координат)
- Сума похибок дорівнює нулю, якщо модель включає в себе вільний член:
- Значення похибок і x некорельовані, тобто (не залежно від того чи присутній в моделі вільний член):
Виведення оцінок в простій регресії
Знайдемо і які мінімізують суму квадратичних похибок (СКП):
Щоб знайти мінімум, візьмемо частинні похідні по і
Перед взяттям частинної похідно по , підставимо попередній результат для .
Тепер візьмемо похідну по :
І, нарешті, підставимо у вираз для визначення
Див. також
Джерела
- Карташов М. В. Імовірність, процеси, статистика. — Київ : ВПЦ Київський університет, 2007. — 504 с.
Примітки
- . Pennsylvania State University. Архів оригіналу за 7 січня 2018. Процитовано 17 жовтня 2016.
- Seltman, Howard J. (8 вересня 2008). (PDF). с. 227. Архів оригіналу (PDF) за 30 листопада 2016. Процитовано 15 грудня 2016.
- . Columbia University. Архів оригіналу за 11 грудня 2017. Процитовано 17 жовтня 2016.
When one independent variable is used in a regression, it is called a simple regression;(...)
- Lane, David M. (PDF). с. 462. Архів оригіналу (PDF) за 10 грудня 2019. Процитовано 15 грудня 2016.
- Kenney, J. F. and Keeping, E. S. (1962) «Linear Regression and Correlation.» Ch. 15 in Mathematics of Statistics, Pt. 1, 3rd ed. Princeton, NJ: Van Nostrand, pp. 252—285
Вікіпедія, Українська, Україна, книга, книги, бібліотека, стаття, читати, завантажити, безкоштовно, безкоштовно завантажити, mp3, відео, mp4, 3gp, jpg, jpeg, gif, png, малюнок, музика, пісня, фільм, книга, гра, ігри, мобільний, телефон, android, ios, apple, мобільний телефон, samsung, iphone, xiomi, xiaomi, redmi, honor, oppo, nokia, sonya, mi, ПК, web, Інтернет
U statistici prostoyu linijnoyu regresiyeyu ye linijna regresijna model z odniyeyu nezalezhnoyu zminnoyu Tobto yiyi rozglyadayut u dvovimirnomu prostori vibirki utvorenomu odniyeyu nezalezhnoyu zminnoyu ta odniyeyu zalezhnoyu zminnoyu zazvichaj h i u koordinati v dekartovij sistemi koordinat Model priznachena dlya znahodzhennya linijnoyi funkciyi ne vertikalnoyu pryamoyi zalezhnosti yaka yakomoga tochnishe prognozuye znachennya zalezhnoyi zminnoyi yak funkciyi nezalezhnoyi zminnoyi Prikmetnik prostij vkazuye na zalezhnist zalezhnoyi zminnoyi vid odnogo prediktora Zakon Oukena v makroekonomici ye prikladom prostoyi linijnoyi regresiyi Tut VVP zalezhna zminna vvazhayetsya linijno zalezhnim vid zmini rivnya bezrobittya Dali v statti vvazhatimemo sho vikoristovuyetsya zvichajna regresiya otrimana metodom najmenshogo kvadratichnogo vidhilennya U comu vipadku nahil kutovij koeficiyent pryamoyi ciyeyi pryamoyi dorivnyuye korelyaciyi mizh y i x skorigovanij na koeficiyenti standartnih vidhilen cih zminnih Tochka peretinu otrimanoyi liniyi prohodit cherez centr mas x y danogo naboru tochok Dopasuvannya regresijnoyi liniyiPripustimo sho ye n tochok xi yi i 1 n Funkciya yaka opisuye zv yazok h i y zapisuyetsya y i a b x i e i displaystyle y i alpha beta x i varepsilon i Zavdannya polyagaye v tomu shob znajti rivnyannya pryamoyi liniyi y a b x displaystyle y alpha beta x yaka b zabezpechuvala najkrashij dopasuvannya nayavnih tochok danih Tut pid najkrashij rozumiyemo v sensi najmenshogo kvadratichnogo vidhilennya liniya sho minimizuye sumu kvadrativ pohibok linijnoyi regresijnoyi modeli Inshimi slovami a peretin z vissyu y i b nahil ye rozv yazkom nastupnoyi zadachi minimizaciyi Find min a b Q a b for Q a b i 1 n e i 2 i 1 n y i a b x i 2 displaystyle text Find min alpha beta Q alpha beta qquad text for Q alpha beta sum i 1 n varepsilon i 2 sum i 1 n y i alpha beta x i 2 Prosto rozkrivayuchi duzhki u virazi otrimuyemo kvadratichnij viraz vidnosno a i b mozhna pokazati sho znachennya a i b yaki minimizuyut cilovu funkciyu Q zapisuyutsya formulami b i 1 n x i x y i y i 1 n x i x 2 i 1 n x i y i x i y x y i x y i 1 n x i 2 2 x i x x 2 i 1 n x i y i y i 1 n x i x i 1 n y i n x y i 1 n x i 2 2 x i 1 n x i n x 2 1 n i 1 n x i y i x y 1 n i 1 n x i 2 x 2 x y x y x 2 x 2 Cov x y Var x r x y s y s x a y b x displaystyle begin aligned hat beta amp frac sum i 1 n x i bar x y i bar y sum i 1 n x i bar x 2 6pt amp frac sum i 1 n x i y i x i bar y bar x y i bar x bar y sum i 1 n x i 2 2x i bar x bar x 2 6pt amp frac sum i 1 n x i y i bar y sum i 1 n x i bar x sum i 1 n y i n bar x bar y sum i 1 n x i 2 2 bar x sum i 1 n x i n bar x 2 6pt amp frac frac 1 n sum i 1 n x i y i bar x bar y frac 1 n sum i 1 n x i 2 overline x 2 6pt amp frac overline xy bar x bar y overline x 2 bar x 2 frac operatorname Cov x y operatorname Var x amp r xy frac s y s x 6pt hat alpha amp bar y hat beta bar x end aligned de rxy koeficiyent korelyaciyi mizh x i y a sx i sy ce standartni vidhilennya x i y Gorizontalna riska nad velichinoyu vkazuye serednye znachennya ciyeyi velichini Napriklad x y 1 n i 1 n x i y i displaystyle overline xy frac 1 n sum i 1 n x i y i Pidstavlyayuchi virazi a displaystyle hat alpha i b displaystyle hat beta v f a b x displaystyle f hat alpha hat beta x mayemo f y s y r x y x x s x displaystyle frac f bar y s y r xy frac x bar x s x Ce pokazuye sho rxy nahil regresijnoyi liniyi dlya standartizovanih tochok vibirki i cya liniya prohodit cherez pochatok koordinat Inodi korisno virahovuvati rxy danih z inshih prichin vikoristovuyuchi formulu r x y x y x y x 2 x 2 y 2 y 2 displaystyle r xy frac overline xy bar x bar y sqrt left overline x 2 bar x 2 right left overline y 2 bar y 2 right Koeficiyent determinaciyi R kvadrat dorivnyuye r x y 2 displaystyle r xy 2 koli mayemo spravu z linijnoyu modellyu z odniyeyu nezalezhnoyu zminnoyu Dokladnishe v statti pro koeficiyent korelyaciyi vibirki Chiselni vlastivostiRegresijna liniya prohodit cherez centr mas tochok x y displaystyle bar x bar y yaksho model vklyuchaye v sebe vilnij chlen tobto ne peresunena v pochatok koordinat Suma pohibok dorivnyuye nulyu yaksho model vklyuchaye v sebe vilnij chlen i 1 n e i 0 displaystyle sum i 1 n hat varepsilon i 0 Znachennya pohibok i x nekorelovani tobto ne zalezhno vid togo chi prisutnij v modeli vilnij chlen i 1 n x i e i 0 displaystyle sum i 1 n x i hat varepsilon i 0 Vivedennya ocinok v prostij regresiyiZnajdemo a displaystyle hat alpha i b displaystyle hat beta yaki minimizuyut sumu kvadratichnih pohibok SKP min a b SSE a b min a b i 1 n y i a b x i 2 displaystyle min hat alpha hat beta operatorname SSE left hat alpha hat beta right equiv min hat alpha hat beta sum i 1 n left y i hat alpha hat beta x i right 2 Shob znajti minimum vizmemo chastinni pohidni po a displaystyle hat alpha i b displaystyle hat beta a SSE a b 2 i 1 n y i a b x i 0 i 1 n y i a b x i 0 i 1 n y i i 1 n a b i 1 n x i i 1 n y i n a b i 1 n x i 1 n i 1 n y i a 1 n b i 1 n x i y a b x displaystyle begin aligned amp frac partial partial hat alpha left operatorname SSE left hat alpha hat beta right right 2 sum i 1 n left y i hat alpha hat beta x i right 0 Rightarrow amp sum i 1 n left y i hat alpha hat beta x i right 0 Rightarrow amp sum i 1 n y i sum i 1 n hat alpha hat beta sum i 1 n x i Rightarrow amp sum i 1 n y i n hat alpha hat beta sum i 1 n x i Rightarrow amp frac 1 n sum i 1 n y i hat alpha frac 1 n hat beta sum i 1 n x i Rightarrow amp bar y hat alpha hat beta bar x end aligned Pered vzyattyam chastinnoyi pohidno po b displaystyle hat beta pidstavimo poperednij rezultat dlya a displaystyle hat alpha min a b i 1 n y i y b x b x i 2 min a b i 1 n y i y b x i x 2 displaystyle min hat alpha hat beta sum i 1 n left y i left bar y hat beta bar x right hat beta x i right 2 min hat alpha hat beta sum i 1 n left left y i bar y right hat beta left x i bar x right right 2 Teper vizmemo pohidnu po b displaystyle hat beta b SSE a b 2 i 1 n y i y b x i x x i x 0 i 1 n y i y x i x b i 1 n x i x 2 0 b i 1 n y i y x i x i 1 n x i x 2 Cov x y Var x displaystyle begin aligned amp frac partial partial hat beta left operatorname SSE left hat alpha hat beta right right 2 sum i 1 n left left y i bar y right hat beta left x i bar x right right left x i bar x right 0 Rightarrow amp sum i 1 n left y i bar y right left x i bar x right hat beta sum i 1 n left x i bar x right 2 0 Rightarrow amp hat beta frac sum i 1 n left y i bar y right left x i bar x right sum i 1 n left x i bar x right 2 frac operatorname Cov x y operatorname Var x end aligned I nareshti pidstavimo b displaystyle hat beta u viraz dlya viznachennya a displaystyle hat alpha a y b x displaystyle hat alpha bar y hat beta bar x Div takozhLinijna regresiyaDzherelaKartashov M V Imovirnist procesi statistika Kiyiv VPC Kiyivskij universitet 2007 504 s Primitki Pennsylvania State University Arhiv originalu za 7 sichnya 2018 Procitovano 17 zhovtnya 2016 Seltman Howard J 8 veresnya 2008 PDF s 227 Arhiv originalu PDF za 30 listopada 2016 Procitovano 15 grudnya 2016 Columbia University Arhiv originalu za 11 grudnya 2017 Procitovano 17 zhovtnya 2016 When one independent variable is used in a regression it is called a simple regression Lane David M PDF s 462 Arhiv originalu PDF za 10 grudnya 2019 Procitovano 15 grudnya 2016 Kenney J F and Keeping E S 1962 Linear Regression and Correlation Ch 15 in Mathematics of Statistics Pt 1 3rd ed Princeton NJ Van Nostrand pp 252 285