Ядрове згладжування або згладження (англ. kernel smoother) — це статистичний метод оцінки дійснозначної функції як середньозважене значення сусідніх спостережених точок. Ваги задаються ядром, так щоб найближчі точки отримали найвищі ваги. Оцінювана функція є гладкою, а рівень гладкості задається єдиним параметром. Ядрове згладжування є типом зваженого рухомого середнього.
Означення
Нехай ядро, задане формулою
де:
- - евклідова норма
- - параметр (радіус ядра)
- D ( t ) зазвичай позитивна дійсна функція, значення якої зменшується (або не зростає) зі збільшенням відстані між X і X0 .
Популярні ядра, що використовуються для згладжування, включають параболічне (Епанечнікова), кубне та гауссове ядра.
Нехай - неперервною функцією від X. Для кожного , ядро-зважене середнє Надарая-Ватсона (згладжена оцінка Y(X)) визначається
де:
- N – кількість спостережуваних точок
- Y ( X i ) — спостереження в точках Xi .
Далі ми опишемо деякі окремі випадки ядрових згладжень.
Ядрове згладження Ґауса
Ядро Ґауса є одним із найпоширеніших ядер і виражається за допомогою рівняння
Тут b — масштаб довжини для вхідного простору.
Ядрове згладження найближчих точок
Ідея ядрового згладження найближчого сусіда полягає в наступному. Для кожної точки X0 беремо m найближчих сусідів і оцінюємо значення Y(X0) шляхом усереднення значень цих сусідів.
Формально, , де є m-м найближчим до X0 сусідом, і
Приклад ядрового згладження найближчих точок зображено на малюнку ліворуч. У цьому прикладі X є одновимірним. Для кожного X0, є середнім значенням 16 найближчих до X0 точок (позначено червоним кольором). Результат недостатньо гладкий.
Середньо ядрове згладження
Ідея середньо ядрового згладження полягає в наступному. Для кожної точки даних X0 виберемо стале значення відстані λ (радіус ядра або ширину вікна для p = 1 вимір) і обчислимо зважене середнє для всіх точок даних, які ближче ніж до X0 (чим ближче до X0 точки тим більшу вагу вони отримають).
Формально, а D(t) — одне з популярних ядер.
Наприклад середньо ядрового згладження зображено на малюнку праворуч. Для кожного X0 ширина вікна стала, а вага кожної точки у вікні схематично позначена жовтою тінню на графіку. Видно, що оцінка плавна, але граничні точки зміщені. Причиною цього є неоднакова кількість точок (справа і зліва до X0 ) у вікні, коли X0 знаходиться досить близько до межі.
Локальна лінійна регресія
У двох попередніх розділах закладалось, що базова функція Y(X) локально константа, що давало змогу використовувати середньозважене значення оцінки. Ідея локальної лінійної регресії полягає в тому, що функція локально відповідає прямій лінії (чи гіперплощині у випадку вищих порядків), а не константі (горизонтальній лінії). Після підгонки лінії оцінка визначається значенням цієї лінії в точці X0. Повторюючи цю процедуру для кожного X0, можна отримати оцінку-функцію . Як і в розділі вище ширина вікна постійна Формально локальна лінійна регресія обчислюється шляхом оптимізації зваженої задачі найменшого квадрата.
У одновимірному випадку ( p = 1):
Розв'язок у вигляді формули:
де:
На рисунку наведена візуалізація локальної лінійної регресії. Отримана функція є гладкою, і проблема зі зміщеними граничними точками не настільки кричуща.
Локальну лінійну регресію можна застосувати у будь-якому просторі, хоча питання про те, що таке локальне сусідство ускладнюється. Зазвичай використовують k найближчих тренувальних точок до тестової точки, щоб відповідати локальній лінійній регресії. Це може призвести до великої дисперсії встановленої функції. Щоб обмежити дисперсію, набір навчальних точок повинен містити тестову точку у своїй опуклій оболонці (див. посилання на Gupta et al.).
Локальна поліноміальна регресія
Замість підгонки локально лінійних функцій можна допасувати поліноміальні функції.
Для p=1 слід розв'язати задачу мінімізації:
з
У загальному випадку (p>1) слід мінімізувати:
Див. також
- Фільтр Савицького–Голея
- Ядрові методи
- Оцінка щільності ядра
- Локальна регресія
- Ядерна регресія
Список літератури
- Li, Q. and J.S. Racine. Nonparametric Econometrics: Theory and Practice. Princeton University Press, 2007, .
- T. Hastie, R. Tibshirani and J. Friedman, The Elements of Statistical Learning, Chapter 6, , 2001. ISBN (companion book site).
- M. Gupta, E. Garcia and E. Chin, "Adaptive Local Linear Regression with Application to Printer Color Management," IEEE Trans. Image Processing 2008.
Вікіпедія, Українська, Україна, книга, книги, бібліотека, стаття, читати, завантажити, безкоштовно, безкоштовно завантажити, mp3, відео, mp4, 3gp, jpg, jpeg, gif, png, малюнок, музика, пісня, фільм, книга, гра, ігри, мобільний, телефон, android, ios, apple, мобільний телефон, samsung, iphone, xiomi, xiaomi, redmi, honor, oppo, nokia, sonya, mi, ПК, web, Інтернет
Yadrove zgladzhuvannya abo zgladzhennya angl kernel smoother ce statistichnij metod ocinki dijsnoznachnoyi funkciyi f R p R displaystyle f mathbb R p to mathbb R yak serednozvazhene znachennya susidnih sposterezhenih tochok Vagi zadayutsya yadrom tak shob najblizhchi tochki otrimali najvishi vagi Ocinyuvana funkciya ye gladkoyu a riven gladkosti zadayetsya yedinim parametrom Yadrove zgladzhuvannya ye tipom zvazhenogo ruhomogo serednogo OznachennyaNehaj K h l X 0 X displaystyle K h lambda X 0 X yadro zadane formuloyu K h l X 0 X D X X 0 h l X 0 displaystyle K h lambda X 0 X D left frac left X X 0 right h lambda X 0 right de X X 0 R p displaystyle X X 0 in mathbb R p displaystyle left cdot right evklidova norma h l X 0 displaystyle h lambda X 0 parametr radius yadra D t zazvichaj pozitivna dijsna funkciya znachennya yakoyi zmenshuyetsya abo ne zrostaye zi zbilshennyam vidstani mizh X i X0 Populyarni yadra sho vikoristovuyutsya dlya zgladzhuvannya vklyuchayut parabolichne Epanechnikova kubne ta gaussove yadra Nehaj Y X R p R displaystyle Y X mathbb R p to mathbb R neperervnoyu funkciyeyu vid X Dlya kozhnogo X 0 R p displaystyle X 0 in mathbb R p yadro zvazhene serednye Nadaraya Vatsona zgladzhena ocinka Y X viznachayetsya Y X 0 i 1 N K h l X 0 X i Y X i i 1 N K h l X 0 X i displaystyle hat Y X 0 frac sum limits i 1 N K h lambda X 0 X i Y X i sum limits i 1 N K h lambda X 0 X i de N kilkist sposterezhuvanih tochok Y X i sposterezhennya v tochkah Xi Dali mi opishemo deyaki okremi vipadki yadrovih zgladzhen Priklad yadrovogo zgladzhennya GausaYadrove zgladzhennya GausaYadro Gausa ye odnim iz najposhirenishih yader i virazhayetsya za dopomogoyu rivnyannya K x x i exp x x i 2 2 b 2 displaystyle K x x i exp left frac x x i 2 2b 2 right Tut b masshtab dovzhini dlya vhidnogo prostoru Yadrove zgladzhennya najblizhchih tochokIdeya yadrovogo zgladzhennya najblizhchogo susida polyagaye v nastupnomu Dlya kozhnoyi tochki X0 beremo m najblizhchih susidiv i ocinyuyemo znachennya Y X0 shlyahom userednennya znachen cih susidiv Priklad yadrovogo zgladzhennya najblizhchih tochok Formalno h m X 0 X 0 X m displaystyle h m X 0 left X 0 X m right de X m displaystyle X m ye m m najblizhchim do X0 susidom i D t 1 m if t 1 0 otherwise displaystyle D t begin cases 1 m amp text if t leq 1 0 amp text otherwise end cases Priklad yadrovogo zgladzhennya najblizhchih tochok zobrazheno na malyunku livoruch U comu prikladi X ye odnovimirnim Dlya kozhnogo X0 Y X 0 displaystyle hat Y X 0 ye serednim znachennyam 16 najblizhchih do X0 tochok poznacheno chervonim kolorom Rezultat nedostatno gladkij Seredno yadrove zgladzhennyaIdeya seredno yadrovogo zgladzhennya polyagaye v nastupnomu Dlya kozhnoyi tochki danih X0 viberemo stale znachennya vidstani l radius yadra abo shirinu vikna dlya p 1 vimir i obchislimo zvazhene serednye dlya vsih tochok danih yaki blizhche nizh l displaystyle lambda do X0 chim blizhche do X0 tochki tim bilshu vagu voni otrimayut Priklad seredno yadrovogo zgladzhennya Formalno h l X 0 l constant displaystyle h lambda X 0 lambda text constant a D t odne z populyarnih yader Napriklad seredno yadrovogo zgladzhennya zobrazheno na malyunku pravoruch Dlya kozhnogo X0 shirina vikna stala a vaga kozhnoyi tochki u vikni shematichno poznachena zhovtoyu tinnyu na grafiku Vidno sho ocinka plavna ale granichni tochki zmisheni Prichinoyu cogo ye neodnakova kilkist tochok sprava i zliva do X0 u vikni koli X0 znahoditsya dosit blizko do mezhi Lokalna linijna regresiyaU dvoh poperednih rozdilah zakladalos sho bazova funkciya Y X lokalno konstanta sho davalo zmogu vikoristovuvati serednozvazhene znachennya ocinki Ideya lokalnoyi linijnoyi regresiyi polyagaye v tomu sho funkciya lokalno vidpovidaye pryamij liniyi chi giperploshini u vipadku vishih poryadkiv a ne konstanti gorizontalnij liniyi Pislya pidgonki liniyi ocinka Y X 0 displaystyle hat Y X 0 viznachayetsya znachennyam ciyeyi liniyi v tochci X0 Povtoryuyuchi cyu proceduru dlya kozhnogo X0 mozhna otrimati ocinku funkciyu Y X displaystyle hat Y X Yak i v rozdili vishe shirina vikna postijna h l X 0 l constant displaystyle h lambda X 0 lambda text constant Formalno lokalna linijna regresiya obchislyuyetsya shlyahom optimizaciyi zvazhenoyi zadachi najmenshogo kvadrata U odnovimirnomu vipadku p 1 min a X 0 b X 0 i 1 N K h l X 0 X i Y X i a X 0 b X 0 X i 2 Y X 0 a X 0 b X 0 X 0 displaystyle begin aligned amp min alpha X 0 beta X 0 sum limits i 1 N K h lambda X 0 X i left Y X i alpha X 0 beta X 0 X i right 2 amp Downarrow amp hat Y X 0 alpha X 0 beta X 0 X 0 end aligned Vizualizaciya lokalna linijnoyi regresiyi Rozv yazok u viglyadi formuli Y X 0 1 X 0 B T W X 0 B 1 B T W X 0 y displaystyle hat Y X 0 left 1 X 0 right left B T W X 0 B right 1 B T W X 0 y de y Y X 1 Y X N T displaystyle y left Y X 1 dots Y X N right T W X 0 diag K h l X 0 X i N N displaystyle W X 0 operatorname diag left K h lambda X 0 X i right N times N B T 1 1 1 X 1 X 2 X N displaystyle B T left begin matrix 1 amp 1 amp dots amp 1 X 1 amp X 2 amp dots amp X N end matrix right Na risunku navedena vizualizaciya lokalnoyi linijnoyi regresiyi Otrimana funkciya ye gladkoyu i problema zi zmishenimi granichnimi tochkami ne nastilki krichusha Lokalnu linijnu regresiyu mozhna zastosuvati u bud yakomu prostori hocha pitannya pro te sho take lokalne susidstvo uskladnyuyetsya Zazvichaj vikoristovuyut k najblizhchih trenuvalnih tochok do testovoyi tochki shob vidpovidati lokalnij linijnij regresiyi Ce mozhe prizvesti do velikoyi dispersiyi vstanovlenoyi funkciyi Shob obmezhiti dispersiyu nabir navchalnih tochok povinen mistiti testovu tochku u svoyij opuklij obolonci div posilannya na Gupta et al Lokalna polinomialna regresiyaZamist pidgonki lokalno linijnih funkcij mozhna dopasuvati polinomialni funkciyi Dlya p 1 slid rozv yazati zadachu minimizaciyi min a X 0 b j X 0 j 1 d i 1 N K h l X 0 X i Y X i a X 0 j 1 d b j X 0 X i j 2 displaystyle underset alpha X 0 beta j X 0 j 1 d mathop min sum limits i 1 N K h lambda X 0 X i left Y X i alpha X 0 sum limits j 1 d beta j X 0 X i j right 2 z Y X 0 a X 0 j 1 d b j X 0 X 0 j displaystyle hat Y X 0 alpha X 0 sum limits j 1 d beta j X 0 X 0 j U zagalnomu vipadku p gt 1 slid minimizuvati b X 0 arg min b X 0 i 1 N K h l X 0 X i Y X i b X i T b X 0 2 b X 1 X 1 X 2 X 1 2 X 2 2 X 1 X 2 Y X 0 b X 0 T b X 0 displaystyle begin aligned amp hat beta X 0 underset beta X 0 mathop arg min sum limits i 1 N K h lambda X 0 X i left Y X i b X i T beta X 0 right 2 amp b X left begin matrix 1 amp X 1 amp X 2 amp X 1 2 amp X 2 2 amp X 1 X 2 end matrix right amp hat Y X 0 b X 0 T hat beta X 0 end aligned Div takozhFiltr Savickogo Goleya Yadrovi metodi Ocinka shilnosti yadra Lokalna regresiya Yaderna regresiyaSpisok literaturiLi Q and J S Racine Nonparametric Econometrics Theory and Practice Princeton University Press 2007 ISBN 0 691 12161 3 T Hastie R Tibshirani and J Friedman The Elements of Statistical Learning Chapter 6 Springer 2001 ISBN 0 387 95284 5ISBN 0 387 95284 5 companion book site M Gupta E Garcia and E Chin Adaptive Local Linear Regression with Application to Printer Color Management IEEE Trans Image Processing 2008