Ця стаття є сирим з англійської мови. Можливо, вона створена за допомогою машинного перекладу або перекладачем, який недостатньо володіє обома мовами. (жовтень 2021) |
У статистиці, теорема Гаусса-Маркова (або просто теорема Гаусса для деяких акторів) стверджує, що у звичайному методі найменших квадратів (ЗМНК) оцінювач має найменшу дисперсію вибірки в межах класу від лінійних неупереджених оцінок, якщо помилки у лінійній регресійній моделі є некорильованими, мають рівні дисперсії та очікуване значення нуля. Помилки не повинні бути нормальними, вони також не повинні бути незалежними та однаково розподіленими (лише некорильованими із середнім нулем та гомосцедастичними з кінцевою дисперсією). Не можна відмовлятись від вимоги щодо неупередженості оцінювача, оскільки упереджені оцінювачі існують з меншою дисперсією. Дивіться, наприклад (який також знижує лінійність), регресійну регресію, або просто будь-який вироджений оцінювач.
Теорема була названа на честь Карла Фрідріха Гаусса та Андрія Маркова, хоча робота Гаусса значно передує роботі Маркова. Але в той час, як Гаусс отримував результат, припускаючи незалежність і нормальність, Марков звів припущення до форми, зазначеної вище. Подальше узагальнення до сферичних помилок дав .
Ствердження
Припустимо ми маємо матричні позначення,
розширюються до,
де не є випадковими, але un спостережуваних параметрів, є невипадковими та спостережуваними (їх називають «пояснювальними змінними»), випадкові, і так є випадковими. Випадкові величини називаються «порушенням», «шумом» або просто «помилкою» (буде протиставлено «залишковим» далі в статті; див. помилки та залишки в статистиці). Зверніть увагу, що для включення константи у вищенаведену модель можна ввести константу як змінну з нещодавно введеним останнім стовпцем X є одиницею, тобто для усіх . Зауважте, що хоча як вибіркові відповіді можна спостерігати наступні твердження та аргументи, включаючи припущення, докази та інші, припускають за єдиною умовою знання але не
Припущення Гаусса-Маркова стосуються безлічі помилок випадкових величин, :
- Вони мають середній нуль:
- Вони гомосцедастичні, тобто всі мають однакову кінцеву дисперсію: для усіх та
- Виразні терміни помилок не пов'язані між собою:
Лінійна оцінка є лінійною комбінацією
В якій коефіцієнтам не дозволяється залежати від базових коефіцієнтів , оскільки вони не спостерігаються, але дозволяється залежати від значень , оскільки ці дані є доступними. (Залежність коефіцієнтів від кожного типово нелінійна; оцінювач є лінійним у кожному а отже і в кожному випадковому саме тому це лінійна регресія.) Кажуть що оцінювач є неупередженим тоді і лише тоді
Незалежно від значень . А тепер нехай буде деякою лінійною комбінацією коефіцієнтів. Тоді середньоквадратична похибка відповідної оцінки становить
Іншими словами, це очікування квадрата зваженої суми (по параметрах) різниць між оцінювачами та відповідними параметрами, які слід оцінити. (Оскільки ми розглядаємо випадок, коли всі оцінки параметрів є неупередженими, ця середньоквадратична похибка така ж, як і дисперсія лінійної комбінації.) Найкращий лінійний неупереджений оцінювач (СИНІЙ) вектора параметрів є найменшою середньоквадратичною похибкою для кожного вектора параметрів лінійної комбінації. Це еквівалентно умов
Є позитивною напіввизначеною матрицею для кожного іншого лінійного неупередженого оцінювача .
Звичайний оцінювач найменших квадратів (ЗОНК) є функцією
з та (де позначає переміщення з ), що мінімізує суму квадратів залишків (суми непередбачуваних значень):
Тепер теорема стверджує, що оцінювач ЗОНК є СИНІМ. Основна ідея доказу полягає в тому, що оцінювач найменших квадратів не корелює з кожною лінійною неупередженою оцінкою нуля, тобто з кожною лінійною комбінацією коефіцієнти якої не залежать від неспостережуваного але очікуване значення якого завжди дорівнює нулю.
Зауваження
Доказ того, що ЗОНК справді МІНІМІЗУЄ суму суми квадратів залишків, може діяти наступним чином із розрахунком матриці Гесса та показуючи, що вона є позитивно визначеною.
Функція СКП (середньоквадратична похибка) яку ми хочемо мінімізувати, є
Для моделі множинної регресії з p змінними. Першка похідна -
,де X – матриця проектування
матриця Гессе інших похідних
Припускаючи стовпці є лінійно незалежними так, що є зворотнім, нехай , потім
Тепер нехай буде власним вектором .
З точки зору векторного множення це означає
де власне значення, що відповідає . Більше того,
Нарешті, як власний ветор був довільним, це означає що всі значення тому є позитивними є позитивно визначеним. Таким чином,
Є справді місцевим мінімумом.
Доказ
Дозволимо бути ще одним лінійним оцінювачем with де is a ненульова матриця. Оскільки ми обмежуємося неупередженими оцінювачами, мІнімальна середньоквадратична похибка передбачає мінімальну дисперсію. Отже, мета полягає в тому, щоб показати, що такий оцінювач має дисперсію, не меншу, ніж у ЗОНК оцінювача. Обчислюємо:
Тому, оскільки є не спостережуваною, є неупередженим якщо і тільки якщо . Потім:
Оскільки DD' є позитивною напіввизначеною матрицею, перевищує позитивну напіввизначену матрицю.
Зауваження щодо доказу
Як зазначалося раніше, стан є позитивною напіввизначеною матрицею, що еквівалентно властивості, якою є найкращий лінійний неупереджений оцінювач є (найкращий в тому сенсі, що він має мінімальну дисперсію). Щоб побачити це, нехай інший лінійний неупереджений оцінювач .
Більше того, рівність виконується якщо і тільки якщо . Обчислюємо
Це доводить, що рівність виконується якщо і тільки якщо що надає унікальність оцінювачу ЗОНК як СИНЬОМУ.
Узагальнювач оцінки найменших квадратів
(УНК), розроблені , розширюють теорему Гаусса-Маркова для випадку, коли вектор помилки має нескалярну коваріоційну матрицю. Оцінювач Аіткена також є СИНІМ.
Теорема Гаусса-Маркова, як зазначено в економетриці
У більшості методів обчислення ЗОНК регресори (параметри, що цікавлять) у передбачають фіксування у повторних зразках. Це припущення вважається недоречним для переважно неекспериментальної науки, такої як економетрика. Натомість припущення теореми Гаусса-Маркова висловлюється умовно .
Лінійність
Залежною змінною вважається лінійна функція змінних, зазначених у моделі. Специфікація повинна бути лінійною за своїми параметрами. Це не означає, що між незалежними та залежними змінними повинна існувати лінійна залежність. Незалежні змінні можуть приймати нелінійну форму, доки параметри є лінійними. Рівняння кваліфікується як лінійне може бути перетворене в лінійне шляхом заміни іншим параметром . Наприклад, рівняння з параметром, що залежить від незалежної змінної, не кваліфікується як лінійне , де є функцією .
Перетворення данних часто використовуються для перетворення рівняння в лінійну форму. Наприклад, функція Кобба-Дугласа - яка часто використовується в економіці, є нелінійною:
Але це можна виразити в лінійній формі, взявши натуральний логарифм обох сторін:
Це припущення також охоплює питання специфікації: припускаючи, що вибрано відповідну функціональну форму і відсутні .
Однак слід пам’ятати, що параметри, що мінімізують залишки перетвореного рівняння, не обов'язково мінімізують залишки вихідного рівняння.
Сувора екзогенність
Для усіх спостережень, очікування – залежно від регресорів – терміну помилки, дорівнює нулю:
де вектор даних регресорів для i спостереження, а отже - це матриця даних або матриця проектування.
Геометрично з цього припущення випливає, що та є ортогональними один одному, так що їх внутрішній добуток (тобто поперечний момент) дорівнює нулю.
Це припущення порушується, якщо пояснювальні змінні є стохастичними, наприклад, коли вони , або є . Ендогенність може бути результатом , коли причинність протікає туди-сюди як між залежною, так і незалежною змінною. Для вирішення цієї проблеми зазвичай використовують інструментальні методи.
Повний ранг
Зразок матриці данних повинен мати повний ранг стовпця.
Syfrit не є оборотним, і оцінювач ЗОНК не може бути обчислений.
Порушенням цього припущення є досконала мультиколінеарність, тобто деякі пояснювальні змінні лінійно залежать. Один із сценаріїв, в якому це відбуватиметься, називається "фіксованою пасткою змінної", коли базова фіктивна змінна не опускається, що призводить до ідеальної кореляції між фіктивними змінними та постійним членом.
Мультиколінеарність (якщо вона не є "ідеальною") може мати наслідком менш ефективну, але все ще неупереджену оцінку. Оцінки будуть менш точними та високочутливими до певних наборів даних. Мультиколінеарність можна виявити за номером умови або серед інших тестів.
Сферичні помилки
Зовнішній продукт вектора помилки повинний бути сферичним.
Це означає, що термін помилки має рівномірну дисперсію (гомоскедастичніть) і не має послідовної залежності. якщо це припущення порушується, ЗОНК все ще є неупередженим, але неефективним. Термін "сферичних помилок" буде описувати багатовимірний нормальний розподіл: якщо у багатовимірній нормальній щільності, то рівняння - формула кульки з центром μ з радіусом σ у n-вимірному просторі.
Гетероскедастичність виникає, коли кількість помилок співвідноситься з незалежною змінною. Наприклад, при регресії витрат на їжу та доходів помилка корелює з доходом. Люди з низьким рівнем доходу зазвичай витрачають подібну суму на їжу, тоді як люди з високим рівнем доходу можуть витратити дуже велику суму або стільки ж, скільки витрачають люди з низьким доходом. Гетероскедастичність також може бути причиною змін у практиці вимірювання. Наприклад, коли статистичні органи вдосконалюють свої дані, похибка вимірювання зменшується, тому термін помилки з часом зменшується.
Це припущення порушується, коли існує автокореляція. Автокореляція може бути візуалізована на графіку даних, коли дане спостереження, швидше за все, лежить вище встановленої лінії, якщо сусідні спостереження також лежать вище встановленої лінії регресії. Автокореляція є загальною для даних часових рядів, де ряд даних може відчувати "інерцію". Якщо залежній змінній потрібно деякий час, щоб повністю поглинути удар. Також може відбуватися просторова автокореляція, географічні райони можуть мати подібні помилки. Автокореляція може бути результатом неправильної специфікації, наприклад, вибору неправильної функціональної форми. У цих випадках виправлення специфікації є одним із можливих способів боротьби з автокореляцією.
За наявності сферичних помилок узагальнений оцінювач найменших квадратів може бути показаний СИНІМ.
Див. також
Інша неупереджена статистика
- (НЛНП)
- (БОзМД)
Список літератури
- See chapter 7 of Johnson, R.A.; Wichern, D.W. (2002). Applied multivariate statistical analysis. Т. 5. Prentice hall.
- (1971). Best Linear Unbiased Estimation and Prediction. Principles of Econometrics. New York: John Wiley & Sons. с. 119–124. ISBN .
- (1949). A Historical Note on the Method of Least Squares. . 36 (3/4): 458—460. doi:10.2307/2332682.
- David, F. N.; Neyman, J. (1938). Extension of the Markoff theorem on least squares. Statistical Research Memoirs. 2: 105—116. OCLC 4025782.
- Aitken, A. C. (1935). On Least Squares and Linear Combinations of Observations. Proceedings of the Royal Society of Edinburgh. 55: 42—48. doi:10.1017/S0370164600014346.
- Huang, David S. (1970). Regression and Econometric Methods. New York: John Wiley & Sons. с. 127–147. ISBN .
- (2000). Econometrics. Princeton University Press. с. 13. ISBN .
- Walters, A. A. (1970). An Introduction to Econometrics. New York: W. W. Norton. с. 275. ISBN .
- (2000). Econometrics. Princeton University Press. с. 7. ISBN .
- (1972). Econometric Methods (вид. Second). New York: McGraw-Hill. с. 267–291. ISBN .
- (2012). Introductory Econometrics (вид. Fifth international). South-Western. с. 220. ISBN .
- (1972). Econometric Methods (вид. Second). New York: McGraw-Hill. с. 159–168. ISBN .
- (2000). Econometrics. Princeton University Press. с. 10. ISBN .
- Ramanathan, Ramu (1993). Nonspherical Disturbances. Statistical Methods in Econometrics. Academic Press. с. 330–351. ISBN .
Джерела
- Davidson, James (2000). Statistical Analysis of the Regression Model. Econometric Theory. Oxford: Blackwell. с. 17–36. ISBN .
- Goldberger, Arthur (1991). Classical Regression. A Course in Econometrics. Cambridge: Harvard University Press. с. 160–169. ISBN .
- (1971). Least Squares and the Standard Linear Model. Principles of Econometrics. New York: John Wiley & Sons. с. 101–162. ISBN .
Посилання
- Earliest Known Uses of Some of the Words of Mathematics: G (коротка історія та пояснення назви)
- Proof of the Gauss Markov theorem for multiple linear regression (використовує матричну алгебру)
Вікіпедія, Українська, Україна, книга, книги, бібліотека, стаття, читати, завантажити, безкоштовно, безкоштовно завантажити, mp3, відео, mp4, 3gp, jpg, jpeg, gif, png, малюнок, музика, пісня, фільм, книга, гра, ігри, мобільний, телефон, android, ios, apple, мобільний телефон, samsung, iphone, xiomi, xiaomi, redmi, honor, oppo, nokia, sonya, mi, ПК, web, Інтернет
Cya stattya ye sirim perekladom z anglijskoyi movi Mozhlivo vona stvorena za dopomogoyu mashinnogo perekladu abo perekladachem yakij nedostatno volodiye oboma movami Bud laska dopomozhit polipshiti pereklad zhovten 2021 U statistici teorema Gaussa Markova abo prosto teorema Gaussa dlya deyakih aktoriv stverdzhuye sho u zvichajnomu metodi najmenshih kvadrativ ZMNK ocinyuvach maye najmenshu dispersiyu vibirki v mezhah klasu vid linijnih neuperedzhenih ocinok yaksho pomilki u linijnij regresijnij modeli ye nekorilovanimi mayut rivni dispersiyi ta ochikuvane znachennya nulya Pomilki ne povinni buti normalnimi voni takozh ne povinni buti nezalezhnimi ta odnakovo rozpodilenimi lishe nekorilovanimi iz serednim nulem ta gomoscedastichnimi z kincevoyu dispersiyeyu Ne mozhna vidmovlyatis vid vimogi shodo neuperedzhenosti ocinyuvacha oskilki uperedzheni ocinyuvachi isnuyut z menshoyu dispersiyeyu Divitsya napriklad yakij takozh znizhuye linijnist regresijnu regresiyu abo prosto bud yakij virodzhenij ocinyuvach Teorema bula nazvana na chest Karla Fridriha Gaussa ta Andriya Markova hocha robota Gaussa znachno pereduye roboti Markova Ale v toj chas yak Gauss otrimuvav rezultat pripuskayuchi nezalezhnist i normalnist Markov zviv pripushennya do formi zaznachenoyi vishe Podalshe uzagalnennya do sferichnih pomilok dav StverdzhennyaPripustimo mi mayemo matrichni poznachennya y X b e y e R n b R K and X R n K displaystyle underline y X underline beta underline varepsilon quad underline y underline varepsilon in mathbb R n underline beta in mathbb R K text and X in mathbb R n times K rozshiryuyutsya do y i j 1 K b j X i j e i i 1 2 n displaystyle y i sum j 1 K beta j X ij varepsilon i quad forall i 1 2 ldots n de b j displaystyle beta j ne ye vipadkovimi ale un sposterezhuvanih parametriv X i j displaystyle X ij ye nevipadkovimi ta sposterezhuvanimi yih nazivayut poyasnyuvalnimi zminnimi e i displaystyle varepsilon i vipadkovi i tak y i displaystyle y i ye vipadkovimi Vipadkovi velichini e i displaystyle varepsilon i nazivayutsya porushennyam shumom abo prosto pomilkoyu bude protistavleno zalishkovim dali v statti div pomilki ta zalishki v statistici Zvernit uvagu sho dlya vklyuchennya konstanti u vishenavedenu model mozhna vvesti konstantu yak zminnu b K 1 displaystyle beta K 1 z neshodavno vvedenim ostannim stovpcem X ye odiniceyu tobto X i K 1 1 displaystyle X i K 1 1 dlya usih i displaystyle i Zauvazhte sho hocha y i displaystyle y i yak vibirkovi vidpovidi mozhna sposterigati nastupni tverdzhennya ta argumenti vklyuchayuchi pripushennya dokazi ta inshi pripuskayut za yedinoyu umovoyu znannya X i j displaystyle X ij ale ne y i displaystyle y i Pripushennya Gaussa Markova stosuyutsya bezlichi pomilok vipadkovih velichin e i displaystyle varepsilon i Voni mayut serednij nul E e i 0 displaystyle operatorname E varepsilon i 0 Voni gomoscedastichni tobto vsi mayut odnakovu kincevu dispersiyu Var e i s 2 lt displaystyle operatorname Var varepsilon i sigma 2 lt infty dlya usih i displaystyle i ta Virazni termini pomilok ne pov yazani mizh soboyu Cov e i e j 0 i j displaystyle text Cov varepsilon i varepsilon j 0 forall i neq j Linijna ocinka b j displaystyle beta j ye linijnoyu kombinaciyeyu b j c 1 j y 1 c n j y n displaystyle widehat beta j c 1j y 1 cdots c nj y n V yakij koeficiyentam c i j displaystyle c ij ne dozvolyayetsya zalezhati vid bazovih koeficiyentiv b j displaystyle beta j oskilki voni ne sposterigayutsya ale dozvolyayetsya zalezhati vid znachen X i j displaystyle X ij oskilki ci dani ye dostupnimi Zalezhnist koeficiyentiv vid kozhnogo X i j displaystyle X ij tipovo nelinijna ocinyuvach ye linijnim u kozhnomu y i displaystyle y i a otzhe i v kozhnomu vipadkovomu e displaystyle varepsilon same tomu ce linijna regresiya Kazhut sho ocinyuvach ye neuperedzhenim todi i lishe todi E b j b j displaystyle operatorname E left widehat beta j right beta j Nezalezhno vid znachen X i j displaystyle X ij A teper nehaj j 1 K l j b j displaystyle sum nolimits j 1 K lambda j beta j bude deyakoyu linijnoyu kombinaciyeyu koeficiyentiv Todi serednokvadratichna pohibka vidpovidnoyi ocinki stanovit E j 1 K l j b j b j 2 displaystyle operatorname E left left sum j 1 K lambda j left widehat beta j beta j right right 2 right Inshimi slovami ce ochikuvannya kvadrata zvazhenoyi sumi po parametrah riznic mizh ocinyuvachami ta vidpovidnimi parametrami yaki slid ociniti Oskilki mi rozglyadayemo vipadok koli vsi ocinki parametriv ye neuperedzhenimi cya serednokvadratichna pohibka taka zh yak i dispersiya linijnoyi kombinaciyi Najkrashij linijnij neuperedzhenij ocinyuvach SINIJ vektora b displaystyle beta parametriv b j displaystyle beta j ye najmenshoyu serednokvadratichnoyu pohibkoyu dlya kozhnogo vektora l displaystyle lambda parametriv linijnoyi kombinaciyi Ce ekvivalentno umov Var b Var b displaystyle operatorname Var left widetilde beta right operatorname Var left widehat beta right Ye pozitivnoyu napivviznachenoyu matriceyu dlya kozhnogo inshogo linijnogo neuperedzhenogo ocinyuvacha b displaystyle widetilde beta Zvichajnij ocinyuvach najmenshih kvadrativ ZONK ye funkciyeyu b X X 1 X y displaystyle widehat beta X X 1 X y z y displaystyle y ta X displaystyle X de X displaystyle X poznachaye peremishennya z X displaystyle X sho minimizuye sumu kvadrativ zalishkiv sumi neperedbachuvanih znachen i 1 n y i y i 2 i 1 n y i j 1 K b j X i j 2 displaystyle sum i 1 n left y i widehat y i right 2 sum i 1 n left y i sum j 1 K widehat beta j X ij right 2 Teper teorema stverdzhuye sho ocinyuvach ZONK ye SINIM Osnovna ideya dokazu polyagaye v tomu sho ocinyuvach najmenshih kvadrativ ne korelyuye z kozhnoyu linijnoyu neuperedzhenoyu ocinkoyu nulya tobto z kozhnoyu linijnoyu kombinaciyeyu a 1 y 1 a n y n displaystyle a 1 y 1 cdots a n y n koeficiyenti yakoyi ne zalezhat vid nesposterezhuvanogo b displaystyle beta ale ochikuvane znachennya yakogo zavzhdi dorivnyuye nulyu Zauvazhennya Dokaz togo sho ZONK spravdi MINIMIZUYe sumu sumi kvadrativ zalishkiv mozhe diyati nastupnim chinom iz rozrahunkom matrici Gessa ta pokazuyuchi sho vona ye pozitivno viznachenoyu Funkciya SKP serednokvadratichna pohibka yaku mi hochemo minimizuvati ye f b 0 b 1 b p i 1 n y i b 0 b 1 x i 1 b p x i p 2 displaystyle f beta 0 beta 1 dots beta p sum i 1 n y i beta 0 beta 1 x i1 dots beta p x ip 2 Dlya modeli mnozhinnoyi regresiyi z p zminnimi Pershka pohidna d d b f 2 X T y X b 2 i 1 n y i b p x i p i 1 n x i 1 y i b p x i p i 1 n x i p y i b p x i p 0 p 1 displaystyle begin aligned frac d d overrightarrow beta f amp 2X T overrightarrow y X overrightarrow beta amp 2 begin bmatrix sum i 1 n y i dots beta p x ip sum i 1 n x i1 y i dots beta p x ip vdots sum i 1 n x ip y i dots beta p x ip end bmatrix amp overrightarrow 0 p 1 end aligned de X matricya proektuvannya X 1 x 11 x 1 p 1 x 21 x 2 p 1 x n 1 x n p R n p 1 n p 1 displaystyle X begin bmatrix 1 amp x 11 amp dots amp x 1p 1 amp x 21 amp dots amp x 2p amp amp dots 1 amp x n1 amp dots amp x np end bmatrix in mathbb R n times p 1 qquad n geqslant p 1 matricya Gesse inshih pohidnih H 2 n i 1 n x i 1 i 1 n x i p i 1 n x i 1 i 1 n x i 1 2 i 1 n x i 1 x i p i 1 n x i p i 1 n x i p x i 1 i 1 n x i p 2 2 X T X displaystyle mathcal H 2 begin bmatrix n amp sum i 1 n x i1 amp dots amp sum i 1 n x ip sum i 1 n x i1 amp sum i 1 n x i1 2 amp dots amp sum i 1 n x i1 x ip vdots amp vdots amp ddots amp vdots sum i 1 n x ip amp sum i 1 n x ip x i1 amp dots amp sum i 1 n x ip 2 end bmatrix 2X T X Pripuskayuchi stovpci X displaystyle X ye linijno nezalezhnimi tak sho X T X displaystyle X T X ye zvorotnim nehaj X v 1 v 2 v p 1 displaystyle X begin bmatrix overrightarrow v 1 amp overrightarrow v 2 amp dots amp overrightarrow v p 1 end bmatrix potim k 1 v 1 k p 1 v p 1 0 k 1 k p 1 0 displaystyle k 1 overrightarrow v 1 dots k p 1 overrightarrow v p 1 0 iff k 1 dots k p 1 0 Teper nehaj k k 1 k p 1 T R p 1 1 displaystyle overrightarrow k k 1 dots k p 1 T in mathbb R p 1 times 1 bude vlasnim vektorom H displaystyle mathcal H k 0 k 1 v 1 k p 1 v p 1 2 gt 0 displaystyle overrightarrow k neq overrightarrow 0 implies k 1 overrightarrow v 1 dots k p 1 overrightarrow v p 1 2 gt 0 Z tochki zoru vektornogo mnozhennya ce oznachaye k 1 k p 1 v 1 v p 1 v 1 v p 1 k 1 k p 1 k T H k l k T k gt 0 displaystyle begin bmatrix k 1 amp dots amp k p 1 end bmatrix begin bmatrix overrightarrow v 1 vdots overrightarrow v p 1 end bmatrix begin bmatrix overrightarrow v 1 amp dots amp overrightarrow v p 1 end bmatrix begin bmatrix k 1 vdots k p 1 end bmatrix overrightarrow k T mathcal H overrightarrow k lambda overrightarrow k T overrightarrow k gt 0 de l displaystyle lambda vlasne znachennya sho vidpovidaye k displaystyle overrightarrow k Bilshe togo k T k i 1 p 1 k i 2 gt 0 l gt 0 displaystyle overrightarrow k T overrightarrow k sum i 1 p 1 k i 2 gt 0 implies lambda gt 0 Nareshti yak vlasnij vetor k displaystyle overrightarrow k buv dovilnim ce oznachaye sho vsi znachennya H displaystyle mathcal H tomu ye pozitivnimi H displaystyle mathcal H ye pozitivno viznachenim Takim chinom b X T X 1 X T Y displaystyle overrightarrow beta X T X 1 X T Y Ye spravdi miscevim minimumom DokazDozvolimo b C y displaystyle tilde beta Cy buti she odnim linijnim ocinyuvachem b displaystyle beta with C X X 1 X D displaystyle C X X 1 X D de D displaystyle D is a K n displaystyle K times n nenulova matricya Oskilki mi obmezhuyemosya neuperedzhenimi ocinyuvachami mInimalna serednokvadratichna pohibka peredbachaye minimalnu dispersiyu Otzhe meta polyagaye v tomu shob pokazati sho takij ocinyuvach maye dispersiyu ne menshu nizh u b displaystyle widehat beta ZONK ocinyuvacha Obchislyuyemo E b E C y E X X 1 X D X b e X X 1 X D X b X X 1 X D E e X X 1 X D X b E e 0 X X 1 X X b D X b I K D X b displaystyle begin aligned operatorname E left tilde beta right amp operatorname E Cy amp operatorname E left left X X 1 X D right X beta varepsilon right amp left X X 1 X D right X beta left X X 1 X D right operatorname E varepsilon amp left X X 1 X D right X beta amp amp operatorname E varepsilon 0 amp X X 1 X X beta DX beta amp I K DX beta end aligned Tomu oskilki b displaystyle beta ye ne sposterezhuvanoyu b displaystyle tilde beta ye neuperedzhenim yaksho i tilki yaksho D X 0 displaystyle DX 0 Potim Var b Var C y C Var y C s 2 C C s 2 X X 1 X D X X X 1 D s 2 X X 1 X X X X 1 X X 1 X D D X X X 1 D D s 2 X X 1 s 2 X X 1 D X s 2 D X X X 1 s 2 D D s 2 X X 1 s 2 D D D X 0 Var b s 2 D D s 2 X X 1 Var b displaystyle begin aligned operatorname Var left tilde beta right amp operatorname Var Cy amp C text Var y C amp sigma 2 CC amp sigma 2 left X X 1 X D right left X X X 1 D right amp sigma 2 left X X 1 X X X X 1 X X 1 X D DX X X 1 DD right amp sigma 2 X X 1 sigma 2 X X 1 DX sigma 2 DX X X 1 sigma 2 DD amp sigma 2 X X 1 sigma 2 DD amp amp DX 0 amp operatorname Var left widehat beta right sigma 2 DD amp amp sigma 2 X X 1 operatorname Var left widehat beta right end aligned Oskilki DD ye pozitivnoyu napivviznachenoyu matriceyu Var b displaystyle operatorname Var left tilde beta right perevishuye Var b displaystyle operatorname Var left widehat beta right pozitivnu napivviznachenu matricyu Zauvazhennya shodo dokazuYak zaznachalosya ranishe stan Var b Var b displaystyle operatorname Var left tilde beta right operatorname Var left widehat beta right ye pozitivnoyu napivviznachenoyu matriceyu sho ekvivalentno vlastivosti yakoyu ye najkrashij linijnij neuperedzhenij ocinyuvach ℓ t b displaystyle ell t beta ye ℓ t b displaystyle ell t widehat beta najkrashij v tomu sensi sho vin maye minimalnu dispersiyu Shob pobachiti ce nehaj ℓ t b displaystyle ell t tilde beta inshij linijnij neuperedzhenij ocinyuvach ℓ t b displaystyle ell t beta Var ℓ t b ℓ t Var b ℓ s 2 ℓ t X X 1 ℓ ℓ t D D t ℓ Var ℓ t b D t ℓ t D t ℓ s 2 ℓ t X X 1 ℓ Var ℓ t b Var ℓ t b D t ℓ Var ℓ t b displaystyle begin aligned operatorname Var left ell t tilde beta right amp ell t operatorname Var left tilde beta right ell amp sigma 2 ell t X X 1 ell ell t DD t ell amp operatorname Var left ell t widehat beta right D t ell t D t ell amp amp sigma 2 ell t X X 1 ell operatorname Var left ell t widehat beta right amp operatorname Var left ell t widehat beta right D t ell amp geqslant operatorname Var left ell t widehat beta right end aligned Bilshe togo rivnist vikonuyetsya yaksho i tilki yaksho D t ℓ 0 displaystyle D t ell 0 Obchislyuyemo ℓ t b ℓ t X X 1 X D Y zverhu ℓ t X X 1 X Y ℓ t D Y ℓ t b D t ℓ t Y ℓ t b D t ℓ 0 displaystyle begin aligned ell t tilde beta amp ell t left X X 1 X D Y right amp amp text zverhu amp ell t X X 1 X Y ell t DY amp ell t widehat beta D t ell t Y amp ell t widehat beta amp amp D t ell 0 end aligned Ce dovodit sho rivnist vikonuyetsya yaksho i tilki yaksho ℓ t b ℓ t b displaystyle ell t tilde beta ell t widehat beta sho nadaye unikalnist ocinyuvachu ZONK yak SINOMU Uzagalnyuvach ocinki najmenshih kvadrativ UNK rozrobleni rozshiryuyut teoremu Gaussa Markova dlya vipadku koli vektor pomilki maye neskalyarnu kovariocijnu matricyu Ocinyuvach Aitkena takozh ye SINIM Teorema Gaussa Markova yak zaznacheno v ekonometriciU bilshosti metodiv obchislennya ZONK regresori parametri sho cikavlyat u X displaystyle mathbf X peredbachayut fiksuvannya u povtornih zrazkah Ce pripushennya vvazhayetsya nedorechnim dlya perevazhno neeksperimentalnoyi nauki takoyi yak ekonometrika Natomist pripushennya teoremi Gaussa Markova vislovlyuyetsya umovno X displaystyle mathbf X Linijnist Zalezhnoyu zminnoyu vvazhayetsya linijna funkciya zminnih zaznachenih u modeli Specifikaciya povinna buti linijnoyu za svoyimi parametrami Ce ne oznachaye sho mizh nezalezhnimi ta zalezhnimi zminnimi povinna isnuvati linijna zalezhnist Nezalezhni zminni mozhut prijmati nelinijnu formu doki parametri ye linijnimi Rivnyannya y b 0 b 1 x 2 displaystyle y beta 0 beta 1 x 2 kvalifikuyetsya yak linijne y b 0 b 1 2 x displaystyle y beta 0 beta 1 2 x mozhe buti peretvorene v linijne shlyahom zamini b 1 2 displaystyle beta 1 2 inshim parametrom g displaystyle gamma Napriklad rivnyannya z parametrom sho zalezhit vid nezalezhnoyi zminnoyi ne kvalifikuyetsya yak linijne y b 0 b 1 x x displaystyle y beta 0 beta 1 x cdot x de b 1 x displaystyle beta 1 x ye funkciyeyu x displaystyle x Peretvorennya dannih chasto vikoristovuyutsya dlya peretvorennya rivnyannya v linijnu formu Napriklad funkciya Kobba Duglasa yaka chasto vikoristovuyetsya v ekonomici ye nelinijnoyu Y A L a K 1 a e e displaystyle Y AL alpha K 1 alpha e varepsilon Ale ce mozhna viraziti v linijnij formi vzyavshi naturalnij logarifm oboh storin ln Y ln A a ln L 1 a ln K e b 0 b 1 ln L b 2 ln K e displaystyle ln Y ln A alpha ln L 1 alpha ln K varepsilon beta 0 beta 1 ln L beta 2 ln K varepsilon Ce pripushennya takozh ohoplyuye pitannya specifikaciyi pripuskayuchi sho vibrano vidpovidnu funkcionalnu formu i vidsutni Odnak slid pam yatati sho parametri sho minimizuyut zalishki peretvorenogo rivnyannya ne obov yazkovo minimizuyut zalishki vihidnogo rivnyannya Suvora ekzogennist Dlya usih n displaystyle n sposterezhen ochikuvannya zalezhno vid regresoriv terminu pomilki dorivnyuye nulyu E e i X E e i x 1 x n 0 displaystyle operatorname E varepsilon i mid mathbf X operatorname E varepsilon i mid mathbf x 1 dots mathbf x n 0 de x i x i 1 x i 2 x i k T displaystyle mathbf x i begin bmatrix x i1 amp x i2 amp dots amp x ik end bmatrix mathsf T vektor danih regresoriv dlya i sposterezhennya a otzhe X x 1 T x 2 T x n T T displaystyle mathbf X begin bmatrix mathbf x 1 mathsf T amp mathbf x 2 mathsf T amp dots amp mathbf x n mathsf T end bmatrix mathsf T ce matricya danih abo matricya proektuvannya Geometrichno z cogo pripushennya viplivaye sho x i displaystyle mathbf x i ta e i displaystyle varepsilon i ye ortogonalnimi odin odnomu tak sho yih vnutrishnij dobutok tobto poperechnij moment dorivnyuye nulyu E x j e i E x j 1 e i E x j 2 e i E x j k e i 0 dlya vsih i j n displaystyle operatorname E mathbf x j cdot varepsilon i begin bmatrix operatorname E x j1 cdot varepsilon i operatorname E x j2 cdot varepsilon i vdots operatorname E x jk cdot varepsilon i end bmatrix mathbf 0 quad text dlya vsih i j in n Ce pripushennya porushuyetsya yaksho poyasnyuvalni zminni ye stohastichnimi napriklad koli voni abo ye Endogennist mozhe buti rezultatom koli prichinnist protikaye tudi syudi yak mizh zalezhnoyu tak i nezalezhnoyu zminnoyu Dlya virishennya ciyeyi problemi zazvichaj vikoristovuyut instrumentalni metodi Povnij rang Zrazok matrici dannih X displaystyle mathbf X povinen mati povnij rang stovpcya rank X k displaystyle operatorname rank mathbf X k Syfrit X X displaystyle mathbf X X ne ye oborotnim i ocinyuvach ZONK ne mozhe buti obchislenij Porushennyam cogo pripushennya ye doskonala multikolinearnist tobto deyaki poyasnyuvalni zminni linijno zalezhat Odin iz scenariyiv v yakomu ce vidbuvatimetsya nazivayetsya fiksovanoyu pastkoyu zminnoyi koli bazova fiktivna zminna ne opuskayetsya sho prizvodit do idealnoyi korelyaciyi mizh fiktivnimi zminnimi ta postijnim chlenom Multikolinearnist yaksho vona ne ye idealnoyu mozhe mati naslidkom mensh efektivnu ale vse she neuperedzhenu ocinku Ocinki budut mensh tochnimi ta visokochutlivimi do pevnih naboriv danih Multikolinearnist mozhna viyaviti za nomerom umovi abo sered inshih testiv Sferichni pomilki Zovnishnij produkt vektora pomilki povinnij buti sferichnim E e e T X Var e X s 2 0 0 0 s 2 0 0 0 s 2 s 2 I with s 2 gt 0 displaystyle operatorname E boldsymbol varepsilon boldsymbol varepsilon mathsf T mid mathbf X operatorname Var boldsymbol varepsilon mid mathbf X begin bmatrix sigma 2 amp 0 amp dots amp 0 0 amp sigma 2 amp dots amp 0 vdots amp vdots amp ddots amp vdots 0 amp 0 amp dots amp sigma 2 end bmatrix sigma 2 mathbf I quad text with sigma 2 gt 0 Ce oznachaye sho termin pomilki maye rivnomirnu dispersiyu gomoskedastichnit i ne maye poslidovnoyi zalezhnosti yaksho ce pripushennya porushuyetsya ZONK vse she ye neuperedzhenim ale neefektivnim Termin sferichnih pomilok bude opisuvati bagatovimirnij normalnij rozpodil yaksho Var e X s 2 I displaystyle operatorname Var boldsymbol varepsilon mid mathbf X sigma 2 mathbf I u bagatovimirnij normalnij shilnosti to rivnyannya f e c displaystyle f varepsilon c formula kulki z centrom m z radiusom s u n vimirnomu prostori Geteroskedastichnist vinikaye koli kilkist pomilok spivvidnositsya z nezalezhnoyu zminnoyu Napriklad pri regresiyi vitrat na yizhu ta dohodiv pomilka korelyuye z dohodom Lyudi z nizkim rivnem dohodu zazvichaj vitrachayut podibnu sumu na yizhu todi yak lyudi z visokim rivnem dohodu mozhut vitratiti duzhe veliku sumu abo stilki zh skilki vitrachayut lyudi z nizkim dohodom Geteroskedastichnist takozh mozhe buti prichinoyu zmin u praktici vimiryuvannya Napriklad koli statistichni organi vdoskonalyuyut svoyi dani pohibka vimiryuvannya zmenshuyetsya tomu termin pomilki z chasom zmenshuyetsya Ce pripushennya porushuyetsya koli isnuye avtokorelyaciya Avtokorelyaciya mozhe buti vizualizovana na grafiku danih koli dane sposterezhennya shvidshe za vse lezhit vishe vstanovlenoyi liniyi yaksho susidni sposterezhennya takozh lezhat vishe vstanovlenoyi liniyi regresiyi Avtokorelyaciya ye zagalnoyu dlya danih chasovih ryadiv de ryad danih mozhe vidchuvati inerciyu Yaksho zalezhnij zminnij potribno deyakij chas shob povnistyu poglinuti udar Takozh mozhe vidbuvatisya prostorova avtokorelyaciya geografichni rajoni mozhut mati podibni pomilki Avtokorelyaciya mozhe buti rezultatom nepravilnoyi specifikaciyi napriklad viboru nepravilnoyi funkcionalnoyi formi U cih vipadkah vipravlennya specifikaciyi ye odnim iz mozhlivih sposobiv borotbi z avtokorelyaciyeyu Za nayavnosti sferichnih pomilok uzagalnenij ocinyuvach najmenshih kvadrativ mozhe buti pokazanij SINIM Div takozhNezalezhni odnakovo rozpodileni vipadkovi velichini Linijna regresiya Neviznachenist vimiryuvannya Insha neuperedzhena statistika NLNP BOzMD Spisok literaturiSee chapter 7 of Johnson R A Wichern D W 2002 Applied multivariate statistical analysis T 5 Prentice hall 1971 Best Linear Unbiased Estimation and Prediction Principles of Econometrics New York John Wiley amp Sons s 119 124 ISBN 0 471 85845 5 1949 A Historical Note on the Method of Least Squares 36 3 4 458 460 doi 10 2307 2332682 David F N Neyman J 1938 Extension of the Markoff theorem on least squares Statistical Research Memoirs 2 105 116 OCLC 4025782 Aitken A C 1935 On Least Squares and Linear Combinations of Observations Proceedings of the Royal Society of Edinburgh 55 42 48 doi 10 1017 S0370164600014346 Huang David S 1970 Regression and Econometric Methods New York John Wiley amp Sons s 127 147 ISBN 0 471 41754 8 2000 Econometrics Princeton University Press s 13 ISBN 0 691 01018 8 Walters A A 1970 An Introduction to Econometrics New York W W Norton s 275 ISBN 0 393 09931 8 2000 Econometrics Princeton University Press s 7 ISBN 0 691 01018 8 1972 Econometric Methods vid Second New York McGraw Hill s 267 291 ISBN 0 07 032679 7 2012 Introductory Econometrics vid Fifth international South Western s 220 ISBN 978 1 111 53439 4 1972 Econometric Methods vid Second New York McGraw Hill s 159 168 ISBN 0 07 032679 7 2000 Econometrics Princeton University Press s 10 ISBN 0 691 01018 8 Ramanathan Ramu 1993 Nonspherical Disturbances Statistical Methods in Econometrics Academic Press s 330 351 ISBN 0 12 576830 3 DzherelaDavidson James 2000 Statistical Analysis of the Regression Model Econometric Theory Oxford Blackwell s 17 36 ISBN 0 631 17837 6 Goldberger Arthur 1991 Classical Regression A Course in Econometrics Cambridge Harvard University Press s 160 169 ISBN 0 674 17544 1 1971 Least Squares and the Standard Linear Model Principles of Econometrics New York John Wiley amp Sons s 101 162 ISBN 0 471 85845 5 PosilannyaEarliest Known Uses of Some of the Words of Mathematics G korotka istoriya ta poyasnennya nazvi Proof of the Gauss Markov theorem for multiple linear regression vikoristovuye matrichnu algebru