У статистиці регресія Демінга (названа на честь В. Едвардса Демінга) є , яка намагається знайти для двовимірного набору даних. Вона відрізняється від простої лінійної регресії тим, що пояснює похибку в спостереженнях як на осі x, так і на осі y. Це особливий випадок , що дозволяє приймати будь-яку кількість показників для прогнозу й складнішу структуру помилок.
Регресія Демінга еквівалентна методу максимальної правдоподібності моделі похибок у змінних, в якій похибки для двох змінних вважаються незалежними й нормально розподіленими, та відомо співвідношення їхніх відхилень, позначених δ. На практиці це співвідношення можна оцінити з відповідних джерел даних; проте процедура регресії не враховує можливі похибки при оцінці цього співвідношення.
Регресію Демінга лише трохи складніше обчислити в порівнянні з простою лінійною регресією. Більшість статистичних програмних пакетів, що використовуються в клінічній хімії, пропонують регресію Демінга.
Модель спочатку була введена (1878), який розглядав випадок δ = 1, а потім більш загалом (1879) з довільним δ. Проте їхні ідеї залишалися значною мірою непоміченими понад 50 років, поки їх не відродив Коопманс (1937). Пізніше ще більше пропагував Демінг (1943). Остання книга стала настільки популярною в та суміжних областях, що цей метод навіть був названий регресією Демінга в цих областях.
Уточнення
Припустимо, що наявні дані (yi, xi) є виміряними спостереженнями «істинних» значень (yi*, xi*), які лежать на лінії регресії:
де помилки ε та η незалежні, а відношення їх відхилень вважається відомим:
На практиці відхилення параметрів та часто невідоме, що ускладнює оцінку . Зверніть увагу, що коли метод вимірювання для та є однаковим, ці відхилення, ймовірно, також будуть однаковими, тому для цього випадку.
Ми прагнемо знайти таку лінію «найкращого підходу»,
де зважена сума квадратних залишків моделі зведена до мінімуму:
Дивись Jensen (2007) для повного виведення.
Рішення
Рішення може бути виражено через моменти вибірки другого ступеня. Тобто спочатку обчислюємо наступні величини (всі суми йдуть від i = 1 to n):
Нарешті, оцінки найменших квадратів параметрів моделі будуть
Ортогональна регресія
Для випадку рівних відхилень похибки, тобто коли , регресія Демінга стає ортогональною регресією: вона мінімізує суму квадратів перпендикулярних відстаней від точок даних до лінії регресії. У цьому випадку позначимо кожне спостереження як точку zj в комплексній площині (тобто, точка (xj, yj) записується як zj = xj + iyj, де i — уявна одиниця). Позначимо як Z суму квадратичних відмінностей точок даних від центроїда (також позначається в комплексних координатах), яка є точкою, горизонтальними та вертикальними розташуваннями якої є середні значення цих точок даних. Тоді:
- Якщо Z = 0, то кожна лінія через центроїд є лінією з найкращим ортогональним підходом.
- Якщо Z ≠ 0, лінія ортогональної регресії проходить через центроїд і паралельна вектору від початку до .
Тригонометричне представлення лінії ортогональної регресії було дано Кулідж в 1913 році.
Додаток
У випадку трьох не колінеарних точок у площині трикутник з цими точками, як його вершини, має унікальний , дотичний до сторін трикутника в їхніх серединах. Велика вісь цього еліпса падає на ортогональну лінію регресії для трьох вершин.
Див. також
Примітки
- (Linnet, 1993)
- Cornbleet, Gochman (1979)
- Fuller, ch.1.3.3
- Jensen, Anders Christian (2007)
- Glaister (2001)
- Minda and Phelps (2008), Theorem 2.3.
- Coolidge, J. L. (1913).
- Minda and Phelps (2008), Corollary 2.4.
Список літератури
- Adcock, R. J. (1878). A problem in least squares. The Analyst. Annals of Mathematics. 5 (2): 53—54. doi:10.2307/2635758. JSTOR 2635758.
- Coolidge, J. L. (1913). Two geometrical applications of the mathematics of least squares. The American Mathematical Monthly. 20 (6): 187—190. doi:10.2307/2973072.
- Cornbleet, P.J.; Gochman, N. (1979). Incorrect Least–Squares Regression Coefficients. Clin. Chem. 25 (3): 432—438. PMID 262186.
- Deming, W. E. (1943). Statistical adjustment of data. Wiley, NY (Dover Publications edition, 1985). ISBN .
- Fuller, Wayne A. (1987). Measurement error models. John Wiley & Sons, Inc. ISBN .
- Glaister, P. (2001). Least squares revisited. . 85: 104—107. doi:10.2307/3620485.
- Jensen, Anders Christian (2007). Deming regression, MethComp package (PDF).
- Koopmans, T. C. (1937). Linear regression analysis of economic time series. DeErven F. Bohn, Haarlem, Netherlands.
- Kummell, C. H. (1879). Reduction of observation equations which contain more than one observed quantity. The Analyst. Annals of Mathematics. 6 (4): 97—105. doi:10.2307/2635646. JSTOR 2635646.
- Linnet, K. (1993). Evaluation of regression procedures for method comparison studies. Clinical Chemistry. 39 (3): 424—432. PMID 8448852.
- ; Phelps, S. (2008). Triangles, ellipses, and cubic polynomials (PDF). American Mathematical Monthly. 115 (8): 679—689. MR 2456092.[недоступне посилання з липня 2019]
Вікіпедія, Українська, Україна, книга, книги, бібліотека, стаття, читати, завантажити, безкоштовно, безкоштовно завантажити, mp3, відео, mp4, 3gp, jpg, jpeg, gif, png, малюнок, музика, пісня, фільм, книга, гра, ігри, мобільний, телефон, android, ios, apple, мобільний телефон, samsung, iphone, xiomi, xiaomi, redmi, honor, oppo, nokia, sonya, mi, ПК, web, Інтернет
U statistici regresiya Deminga nazvana na chest V Edvardsa Deminga ye yaka namagayetsya znajti dlya dvovimirnogo naboru danih Vona vidriznyayetsya vid prostoyi linijnoyi regresiyi tim sho poyasnyuye pohibku v sposterezhennyah yak na osi x tak i na osi y Ce osoblivij vipadok sho dozvolyaye prijmati bud yaku kilkist pokaznikiv dlya prognozu j skladnishu strukturu pomilok Regresiya Deminga Chervoni vidrizki pokazuyut pohibku yak x tak j y Cej pidhid vidriznyayetsya vid tradicijnogo metodu najmenshih kvadrativ yakij vimiryuye pohibku tilki dlya y tobto beretsya vidstan vidrizkiv paralelnih osi y Na malyunku vidhilennya vimiryuyetsya perpendikulyarno do pryamoyi Taka situaciya vinikaye koli pohibki x ta y mayut odnakove vidhilennya Regresiya Deminga ekvivalentna metodu maksimalnoyi pravdopodibnosti modeli pohibok u zminnih v yakij pohibki dlya dvoh zminnih vvazhayutsya nezalezhnimi j normalno rozpodilenimi ta vidomo spivvidnoshennya yihnih vidhilen poznachenih d Na praktici ce spivvidnoshennya mozhna ociniti z vidpovidnih dzherel danih prote procedura regresiyi ne vrahovuye mozhlivi pohibki pri ocinci cogo spivvidnoshennya Regresiyu Deminga lishe trohi skladnishe obchisliti v porivnyanni z prostoyu linijnoyu regresiyeyu Bilshist statistichnih programnih paketiv sho vikoristovuyutsya v klinichnij himiyi proponuyut regresiyu Deminga Model spochatku bula vvedena 1878 yakij rozglyadav vipadok d 1 a potim bilsh zagalom 1879 z dovilnim d Prote yihni ideyi zalishalisya znachnoyu miroyu nepomichenimi ponad 50 rokiv poki yih ne vidrodiv Koopmans 1937 Piznishe she bilshe propaguvav Deming 1943 Ostannya kniga stala nastilki populyarnoyu v ta sumizhnih oblastyah sho cej metod navit buv nazvanij regresiyeyu Deminga v cih oblastyah UtochnennyaPripustimo sho nayavni dani yi xi ye vimiryanimi sposterezhennyami istinnih znachen yi xi yaki lezhat na liniyi regresiyi y i y i e i x i x i h i displaystyle begin aligned y i amp y i varepsilon i x i amp x i eta i end aligned de pomilki e ta h nezalezhni a vidnoshennya yih vidhilen vvazhayetsya vidomim d s e 2 s h 2 displaystyle delta frac sigma varepsilon 2 sigma eta 2 Na praktici vidhilennya parametriv x displaystyle x ta y displaystyle y chasto nevidome sho uskladnyuye ocinku d displaystyle delta Zvernit uvagu sho koli metod vimiryuvannya dlya x displaystyle x ta y displaystyle y ye odnakovim ci vidhilennya jmovirno takozh budut odnakovimi tomu d 1 displaystyle delta 1 dlya cogo vipadku Mi pragnemo znajti taku liniyu najkrashogo pidhodu y b 0 b 1 x displaystyle y beta 0 beta 1 x de zvazhena suma kvadratnih zalishkiv modeli zvedena do minimumu S S R i 1 n e i 2 s e 2 h i 2 s h 2 1 s e 2 i 1 n y i b 0 b 1 x i 2 d x i x i 2 min b 0 b 1 x 1 x n S S R displaystyle SSR sum i 1 n bigg frac varepsilon i 2 sigma varepsilon 2 frac eta i 2 sigma eta 2 bigg frac 1 sigma varepsilon 2 sum i 1 n Big y i beta 0 beta 1 x i 2 delta x i x i 2 Big to min beta 0 beta 1 x 1 ldots x n SSR Divis Jensen 2007 dlya povnogo vivedennya RishennyaRishennya mozhe buti virazheno cherez momenti vibirki drugogo stupenya Tobto spochatku obchislyuyemo nastupni velichini vsi sumi jdut vid i 1 to n x 1 n x i y 1 n y i s x x 1 n 1 x i x 2 s x y 1 n 1 x i x y i y s y y 1 n 1 y i y 2 displaystyle begin aligned amp overline x frac 1 n sum x i quad overline y frac 1 n sum y i amp s xx tfrac 1 n 1 sum x i overline x 2 amp s xy tfrac 1 n 1 sum x i overline x y i overline y amp s yy tfrac 1 n 1 sum y i overline y 2 end aligned Nareshti ocinki najmenshih kvadrativ parametriv modeli budut b 1 s y y d s x x s y y d s x x 2 4 d s x y 2 2 s x y b 0 y b 1 x x i x i b 1 b 1 2 d y i b 0 b 1 x i displaystyle begin aligned amp hat beta 1 frac s yy delta s xx sqrt s yy delta s xx 2 4 delta s xy 2 2s xy amp hat beta 0 overline y hat beta 1 overline x amp hat x i x i frac hat beta 1 hat beta 1 2 delta y i hat beta 0 hat beta 1 x i end aligned Ortogonalna regresiyaDlya vipadku rivnih vidhilen pohibki tobto koli d 1 displaystyle delta 1 regresiya Deminga staye ortogonalnoyu regresiyeyu vona minimizuye sumu kvadrativ perpendikulyarnih vidstanej vid tochok danih do liniyi regresiyi U comu vipadku poznachimo kozhne sposterezhennya yak tochku zj v kompleksnij ploshini tobto tochka xj yj zapisuyetsya yak zj xj iyj de i uyavna odinicya Poznachimo yak Z sumu kvadratichnih vidminnostej tochok danih vid centroyida takozh poznachayetsya v kompleksnih koordinatah yaka ye tochkoyu gorizontalnimi ta vertikalnimi roztashuvannyami yakoyi ye seredni znachennya cih tochok danih Todi Yaksho Z 0 to kozhna liniya cherez centroyid ye liniyeyu z najkrashim ortogonalnim pidhodom Yaksho Z 0 liniya ortogonalnoyi regresiyi prohodit cherez centroyid i paralelna vektoru vid pochatku do Z displaystyle sqrt Z Trigonometrichne predstavlennya liniyi ortogonalnoyi regresiyi bulo dano Kulidzh v 1913 roci DodatokU vipadku troh ne kolinearnih tochok u ploshini trikutnik z cimi tochkami yak jogo vershini maye unikalnij dotichnij do storin trikutnika v yihnih seredinah Velika vis cogo elipsa padaye na ortogonalnu liniyu regresiyi dlya troh vershin Div takozhNablizhennya pryamoyuPrimitki Linnet 1993 Cornbleet Gochman 1979 Fuller ch 1 3 3 Jensen Anders Christian 2007 Glaister 2001 Minda and Phelps 2008 Theorem 2 3 Coolidge J L 1913 Minda and Phelps 2008 Corollary 2 4 Spisok literaturiAdcock R J 1878 A problem in least squares The Analyst Annals of Mathematics 5 2 53 54 doi 10 2307 2635758 JSTOR 2635758 Coolidge J L 1913 Two geometrical applications of the mathematics of least squares The American Mathematical Monthly 20 6 187 190 doi 10 2307 2973072 Cornbleet P J Gochman N 1979 Incorrect Least Squares Regression Coefficients Clin Chem 25 3 432 438 PMID 262186 Deming W E 1943 Statistical adjustment of data Wiley NY Dover Publications edition 1985 ISBN 0 486 64685 8 Fuller Wayne A 1987 Measurement error models John Wiley amp Sons Inc ISBN 0 471 86187 1 Glaister P 2001 Least squares revisited 85 104 107 doi 10 2307 3620485 Jensen Anders Christian 2007 Deming regression MethComp package PDF Koopmans T C 1937 Linear regression analysis of economic time series DeErven F Bohn Haarlem Netherlands Kummell C H 1879 Reduction of observation equations which contain more than one observed quantity The Analyst Annals of Mathematics 6 4 97 105 doi 10 2307 2635646 JSTOR 2635646 Linnet K 1993 Evaluation of regression procedures for method comparison studies Clinical Chemistry 39 3 424 432 PMID 8448852 Phelps S 2008 Triangles ellipses and cubic polynomials PDF American Mathematical Monthly 115 8 679 689 MR 2456092 nedostupne posilannya z lipnya 2019