В області математичного, статистичного та комп'ютерного моделювання, модель сірий ящик поєднує в собі часткову теоретичну структуру з даними для завершення моделі. Теоретична структура може варіюватись від інформації щодо гладкості результату до моделей, які потребують лише значення параметрів з даних чи існуючої літератури. Таким чином, майже всі моделі є моделями типу "сірий ящик", на відміну від чорного ящика, де немає типової форми - тобто коли ми не знаємо про модель нічого, крім вхідних та вихідних даних в експерименті (і різні системи можуть мати однакову поведінку), або моделі білого ящика, яка носить чисто теоретичний характер. Деякі моделі передбачають спеціальну форму, такі як лінійна регресія або нейронної мережі. Вони мають спеціальні методи аналізу. Зокрема, лінійна регресія є набагато більш ефективна, ніж більшість нелінійних методів. Моделі можуть бути детермінованими або стохастичними (тобто містять випадкові компоненти) в залежності від цілі їх використання.
Форма моделі
Загальний випадок є нелінійною моделлю з частковою теоретичною структурою і деякими невідомими частинами, отриманими з даних. Моделі, на відміну від теоретичних структур, оцінюються окремо, в ході оцінки можна використовувати генетичні алгоритми.
В рамках конкретної моделі може появитись необхідність у знаходженні параметрів . Для конкретної структури передбачається, що дані складаються з наборів векторів подачі f, векторного добутку р, і вектором-оператором стану с. Як правило, с міститиме значення, отримані з f, а також інші значення. У багатьох випадках модель може бути перетворена у функцію вигляду:
- m(f,p,q)
де вектор-функція m дає похибку між даними р і передбаченням моделі. Вектор q дає деякі змінні параметри, які є невідомою частиною моделі.
Параметр q змінюється в залежності від с у визначеному порядку. Це співвідношення може бути задано як q = Ac, де А являє собою матрицю невідомих коефіцієнтів, с - як і в лінійній регресії - включає в себе постійний член та, можливо, перетворені значення вихідних умов експлуатації, за допомогою яких зможемо отримати нелінійні співвідношення між вихідними умовами і q. Саме тоді постає питання вибору, які умови в А відмінні від нуля, і які значення їм потрібно присвоїти. Завершення моделі стає завданням оптимізації для визначення ненульових значень в А, що зводять до мінімуму похибку між m(f,p,Ac) і даними.
Завершення моделі
Після здійснення вибору ненульових елементів, інші коефіцієнти в А можуть бути визначені шляхом мінімізації m(f,p,Ac), беручи до уваги те, що в A повинні бути ненульові значення. Як правило, мінімізація відбувається за допомогою методу найменших квадратів. Вибір ненульових членів також може бути зроблений за допомогою методів оптимізації. Крім того, нелінійний метод найменших квадратів може забезпечити оцінки точності для елементів матриці А, які можуть бути використані, щоб визначити, наскільки отримані значення відрізняються від нуля.
Іноді можна обчислити значення Q для кожного набору даних - безпосередньо або за допомогою нелінійних найменших квадратів. Тоді використовується лінійна регресія для вибору ненульових значень в А і оцінки їх значень. Після того, як ненульові значення знайдені, нелінійний метод найменших квадратів може бути використаний на оригінальної моделі м (F, P, Ас), щоб уточнити ці значення.
Третій метод - це інверсійна модель, яка перетворює нелінійну модель m(f,p,Ac) в приблизну лінійну форму елементів А, які можуть бути вивчені за допомогою ефективного відбору та оцінки лінійної регресії . Для простого випадку одного значення оберемо q(q = aTc) і оцінку q* . Прийнявши dq = aTc − q*, отримаємо
- m(f,p,aTc) = m(f,p,q* + dq) ≈ m(f,p.q*) + dq m’(f,p,q*) = m(f,p.q*) + (aTc − q*) m’(f,p,q*)
так що aT в даний час знаходиться в лінійному положенні разом з усіма іншими відомими значеннями, і, таким чином, може бути проаналізованим за допомогою лінійної регресії. Для більш ніж одного параметра метод застосовується в прямому порядку. Після перевірки того, чи була покращена ця модель, цей процес може повторюватися до досягнення збіжності. Такий підхід має перевагу тому, що не потребує параметра q для того, щоб мати змогу визначити похибку з індивідуального набору даних і лінійної регресії.
Перевірка моделі
При наявності достатньої кількості даних рекомендується поділити їх на окремі набори для побудови моделі. Ця дія може повторюватись із використанням декількох елементів з утворених множин; вкінці зможемо отримати усереднення отриманих моделей.
Статистичний критерій, наприклад, критерій хі-квадрат, не є дуже корисним. Критерій хі квадрат вимагає відомих стандартних відхилень, які рідко відомі наперед, крім того, цей критерій не дає ніяких вказівок про те, як поліпшити модель.
Спроба передбачити нев'язки m(,) з початковими умовами із використанням лінійної регресії буде показувати, чи нев'язки можливо взагалі передбачити нев'язку. Нев'язки,значення яких ми не можемо знати наперед, не забезпечують широку перспективу вдосконалення моделі з використанням поточних умов. Умови, які можуть передбачити значення нев'язки, є перспективними умовами для включення в модель для поліпшення її роботи.
Методика моделі інверсії, що представлена вище, може бути використана як метод визначення того, чи можливо покращити модель. В цьому випадку відбір ненульових доданків не настільки важливий і можемо використати лінійне передбачення. При цьому використаємо значення власних векторів матриці регресії. Значення в А, визначені так, як описано вище, повинні бути замінені в нелінійній моделі для зменшення похибки. Відсутність значного покращення вказує, що наявні дані не можуть поліпшити поточну форму моделі, використовуючи певні параметри. Розширені можливості пошуку можуть бути вставлені в модель, щоб зробити цей критерій ширшим для використання.
Посилання
- Bohlin, Torsten P. (7 вересня 2006). Practical Grey-box Process Identification: Theory and Applications. Springer Science & Business Media. ISBN .
- . Mathworks 2. 2012. Архів оригіналу за 21 жовтня 2014. Процитовано 18 травня 2017.
- Kroll, Andreas (2000).
- Whiten, B., 2013.
- Draper, Norman R.; Smith, Harry (25 серпня 2014). Applied Regression Analysis. John Wiley & Sons. с. 657–. ISBN .
- Weisberg, Sanford (25 листопада 2013). Applied Linear Regression. Wiley. ISBN .
- Heaton, J., 2012.
- Stergiou, C.; Siganos, D. (2013). . Архів оригіналу за 16 грудня 2009. Процитовано 18 травня 2017.
- Метод скінченних елементів і штучні нейронні мережі. Теоретичні аспекти та застосування : монографія / В.М. Трушевський, Г.А. Шинкаренко, Н.М. Щербина ; Міністерство освіти і науки України, Львівський національний університет імені Івана Франка, Національна академія наук України, Інститут прикладних проблем механіки і математики імені Я.С. Підстригача. 2014 — через Львів : ЛНУ імені Івана Франка.[недоступне посилання з жовтня 2019]
- Lawson, Charles L.; J. Hanson, Richard (1 грудня 1995). Solving Least Squares Problems. SIAM. ISBN .
- Press, W.H.; Teukolsky, S.A.; Vetterling, W.T.; Flannery, B.P. (2007). Numerical Recipes (вид. 3rd). Cambridge University Press. ISBN .
- Gelman, Andrew; Carlin, John B.; Stern, Hal S.; Dunson, David B.; Vehtari, Aki; Rubin, Donald B. (1 листопада 2013). Bayesian Data Analysis, Third Edition. CRC Press. ISBN .
На цю статтю не посилаються інші статті Вікіпедії. Будь ласка розставте посилання відповідно до . |
Вікіпедія, Українська, Україна, книга, книги, бібліотека, стаття, читати, завантажити, безкоштовно, безкоштовно завантажити, mp3, відео, mp4, 3gp, jpg, jpeg, gif, png, малюнок, музика, пісня, фільм, книга, гра, ігри, мобільний, телефон, android, ios, apple, мобільний телефон, samsung, iphone, xiomi, xiaomi, redmi, honor, oppo, nokia, sonya, mi, ПК, web, Інтернет
V oblasti matematichnogo statistichnogo ta komp yuternogo modelyuvannya model sirij yashik poyednuye v sobi chastkovu teoretichnu strukturu z danimi dlya zavershennya modeli Teoretichna struktura mozhe variyuvatis vid informaciyi shodo gladkosti rezultatu do modelej yaki potrebuyut lishe znachennya parametriv z danih chi isnuyuchoyi literaturi Takim chinom majzhe vsi modeli ye modelyami tipu sirij yashik na vidminu vid chornogo yashika de nemaye tipovoyi formi tobto koli mi ne znayemo pro model nichogo krim vhidnih ta vihidnih danih v eksperimenti i rizni sistemi mozhut mati odnakovu povedinku abo modeli bilogo yashika yaka nosit chisto teoretichnij harakter Deyaki modeli peredbachayut specialnu formu taki yak linijna regresiya abo nejronnoyi merezhi Voni mayut specialni metodi analizu Zokrema linijna regresiya ye nabagato bilsh efektivna nizh bilshist nelinijnih metodiv Modeli mozhut buti determinovanimi abo stohastichnimi tobto mistyat vipadkovi komponenti v zalezhnosti vid cili yih vikoristannya Forma modeli Zagalnij vipadok ye nelinijnoyu modellyu z chastkovoyu teoretichnoyu strukturoyu i deyakimi nevidomimi chastinami otrimanimi z danih Modeli na vidminu vid teoretichnih struktur ocinyuyutsya okremo v hodi ocinki mozhna vikoristovuvati genetichni algoritmi V ramkah konkretnoyi modeli mozhe poyavitis neobhidnist u znahodzhenni parametriv Dlya konkretnoyi strukturi peredbachayetsya sho dani skladayutsya z naboriv vektoriv podachi f vektornogo dobutku r i vektorom operatorom stanu s Yak pravilo s mistitime znachennya otrimani z f a takozh inshi znachennya U bagatoh vipadkah model mozhe buti peretvorena u funkciyu viglyadu m f p q de vektor funkciya m daye pohibku mizh danimi r i peredbachennyam modeli Vektor q daye deyaki zminni parametri yaki ye nevidomoyu chastinoyu modeli Parametr q zminyuyetsya v zalezhnosti vid s u viznachenomu poryadku Ce spivvidnoshennya mozhe buti zadano yak q Ac de A yavlyaye soboyu matricyu nevidomih koeficiyentiv s yak i v linijnij regresiyi vklyuchaye v sebe postijnij chlen ta mozhlivo peretvoreni znachennya vihidnih umov ekspluataciyi za dopomogoyu yakih zmozhemo otrimati nelinijni spivvidnoshennya mizh vihidnimi umovami i q Same todi postaye pitannya viboru yaki umovi v A vidminni vid nulya i yaki znachennya yim potribno prisvoyiti Zavershennya modeli staye zavdannyam optimizaciyi dlya viznachennya nenulovih znachen v A sho zvodyat do minimumu pohibku mizh m f p Ac i danimi Zavershennya modeliPislya zdijsnennya viboru nenulovih elementiv inshi koeficiyenti v A mozhut buti viznacheni shlyahom minimizaciyi m f p Ac beruchi do uvagi te sho v A povinni buti nenulovi znachennya Yak pravilo minimizaciya vidbuvayetsya za dopomogoyu metodu najmenshih kvadrativ Vibir nenulovih chleniv takozh mozhe buti zroblenij za dopomogoyu metodiv optimizaciyi Krim togo nelinijnij metod najmenshih kvadrativ mozhe zabezpechiti ocinki tochnosti dlya elementiv matrici A yaki mozhut buti vikoristani shob viznachiti naskilki otrimani znachennya vidriznyayutsya vid nulya Inodi mozhna obchisliti znachennya Q dlya kozhnogo naboru danih bezposeredno abo za dopomogoyu nelinijnih najmenshih kvadrativ Todi vikoristovuyetsya linijna regresiya dlya viboru nenulovih znachen v A i ocinki yih znachen Pislya togo yak nenulovi znachennya znajdeni nelinijnij metod najmenshih kvadrativ mozhe buti vikoristanij na originalnoyi modeli m F P As shob utochniti ci znachennya Tretij metod ce inversijna model yaka peretvoryuye nelinijnu model m f p Ac v pribliznu linijnu formu elementiv A yaki mozhut buti vivcheni za dopomogoyu efektivnogo vidboru ta ocinki linijnoyi regresiyi Dlya prostogo vipadku odnogo znachennya oberemo q q aTc i ocinku q Prijnyavshi dq aTc q otrimayemo m f p aTc m f p q dq m f p q dq m f p q m f p q aTc q m f p q tak sho aT v danij chas znahoditsya v linijnomu polozhenni razom z usima inshimi vidomimi znachennyami i takim chinom mozhe buti proanalizovanim za dopomogoyu linijnoyi regresiyi Dlya bilsh nizh odnogo parametra metod zastosovuyetsya v pryamomu poryadku Pislya perevirki togo chi bula pokrashena cya model cej proces mozhe povtoryuvatisya do dosyagnennya zbizhnosti Takij pidhid maye perevagu tomu sho ne potrebuye parametra q dlya togo shob mati zmogu viznachiti pohibku z individualnogo naboru danih i linijnoyi regresiyi Perevirka modeliPri nayavnosti dostatnoyi kilkosti danih rekomenduyetsya podiliti yih na okremi nabori dlya pobudovi modeli Cya diya mozhe povtoryuvatis iz vikoristannyam dekilkoh elementiv z utvorenih mnozhin vkinci zmozhemo otrimati userednennya otrimanih modelej Statistichnij kriterij napriklad kriterij hi kvadrat ne ye duzhe korisnim Kriterij hi kvadrat vimagaye vidomih standartnih vidhilen yaki ridko vidomi napered krim togo cej kriterij ne daye niyakih vkazivok pro te yak polipshiti model Sproba peredbachiti nev yazki m z pochatkovimi umovami iz vikoristannyam linijnoyi regresiyi bude pokazuvati chi nev yazki mozhlivo vzagali peredbachiti nev yazku Nev yazki znachennya yakih mi ne mozhemo znati napered ne zabezpechuyut shiroku perspektivu vdoskonalennya modeli z vikoristannyam potochnih umov Umovi yaki mozhut peredbachiti znachennya nev yazki ye perspektivnimi umovami dlya vklyuchennya v model dlya polipshennya yiyi roboti Metodika modeli inversiyi sho predstavlena vishe mozhe buti vikoristana yak metod viznachennya togo chi mozhlivo pokrashiti model V comu vipadku vidbir nenulovih dodankiv ne nastilki vazhlivij i mozhemo vikoristati linijne peredbachennya Pri comu vikoristayemo znachennya vlasnih vektoriv matrici regresiyi Znachennya v A viznacheni tak yak opisano vishe povinni buti zamineni v nelinijnij modeli dlya zmenshennya pohibki Vidsutnist znachnogo pokrashennya vkazuye sho nayavni dani ne mozhut polipshiti potochnu formu modeli vikoristovuyuchi pevni parametri Rozshireni mozhlivosti poshuku mozhut buti vstavleni v model shob zrobiti cej kriterij shirshim dlya vikoristannya PosilannyaBohlin Torsten P 7 veresnya 2006 Practical Grey box Process Identification Theory and Applications Springer Science amp Business Media ISBN 978 1 84628 403 8 Mathworks 2 2012 Arhiv originalu za 21 zhovtnya 2014 Procitovano 18 travnya 2017 Kroll Andreas 2000 Whiten B 2013 Draper Norman R Smith Harry 25 serpnya 2014 Applied Regression Analysis John Wiley amp Sons s 657 ISBN 978 1 118 62568 2 Weisberg Sanford 25 listopada 2013 Applied Linear Regression Wiley ISBN 978 1 118 59485 8 Heaton J 2012 Stergiou C Siganos D 2013 Arhiv originalu za 16 grudnya 2009 Procitovano 18 travnya 2017 Metod skinchennih elementiv i shtuchni nejronni merezhi Teoretichni aspekti ta zastosuvannya monografiya V M Trushevskij G A Shinkarenko N M Sherbina Ministerstvo osviti i nauki Ukrayini Lvivskij nacionalnij universitet imeni Ivana Franka Nacionalna akademiya nauk Ukrayini Institut prikladnih problem mehaniki i matematiki imeni Ya S Pidstrigacha 2014 cherez Lviv LNU imeni Ivana Franka nedostupne posilannya z zhovtnya 2019 Lawson Charles L J Hanson Richard 1 grudnya 1995 Solving Least Squares Problems SIAM ISBN 978 0 89871 356 5 Press W H Teukolsky S A Vetterling W T Flannery B P 2007 Numerical Recipes vid 3rd Cambridge University Press ISBN 978 0 521 88068 8 Gelman Andrew Carlin John B Stern Hal S Dunson David B Vehtari Aki Rubin Donald B 1 listopada 2013 Bayesian Data Analysis Third Edition CRC Press ISBN 978 1 4398 4095 5 Na cyu stattyu ne posilayutsya inshi statti Vikipediyi Bud laska rozstavte posilannya vidpovidno do prijnyatih rekomendacij