Теорема Цибенка, Універсальна теорема апроксимації — теорема, доведена Джорджем Цибенком (George Cybenko) в 1989 році, яка стверджує, що штучна нейронна мережа прямого зв'язку (англ. feed-forward; у яких зв'язки не утворюють циклів) з одним прихованим шаром може апроксимувати будь-яку неперервну функцію багатьох змінних з будь-якою точністю. Умовами є достатня кількість нейронів прихованого шару, вдалий підбір і , де
- — ваги між вхідними нейронами і нейронами прихованого шару
- — ваги між зв'язками від нейронів прихованого шару і вихідним нейроном
- — коефцієнт «упередженості» для нейронів прихованого шару.
Формальне викладення
Нехай будь-яка непрервна сигмоїдна функція, наприклад, . Тоді, якщо дана будь-яка неперервна функція дійсних змінних на (або будь яка інша компактна підмножина ) і , тоді існують вектори та параметризована функція така, що
- для всіх
де
та та .
Посилання
- Hassoun, M. (1995) Fundamentals of Artificial Neural Networks MIT Press, p. 48
Див. також
Вікіпедія, Українська, Україна, книга, книги, бібліотека, стаття, читати, завантажити, безкоштовно, безкоштовно завантажити, mp3, відео, mp4, 3gp, jpg, jpeg, gif, png, малюнок, музика, пісня, фільм, книга, гра, ігри, мобільний, телефон, android, ios, apple, мобільний телефон, samsung, iphone, xiomi, xiaomi, redmi, honor, oppo, nokia, sonya, mi, ПК, web, Інтернет
Teorema Cibenka Universalna teorema aproksimaciyi teorema dovedena Dzhordzhem Cibenkom George Cybenko v 1989 roci yaka stverdzhuye sho shtuchna nejronna merezha pryamogo zv yazku angl feed forward u yakih zv yazki ne utvoryuyut cikliv z odnim prihovanim sharom mozhe aproksimuvati bud yaku neperervnu funkciyu bagatoh zminnih z bud yakoyu tochnistyu Umovami ye dostatnya kilkist nejroniv prihovanogo sharu vdalij pidbir w1 w2 wN a displaystyle mathbf w 1 mathbf w 2 dots mathbf w N mathbf alpha i 8 displaystyle mathbf theta de wi displaystyle mathbf w i vagi mizh vhidnimi nejronami i nejronami prihovanogo sharu a displaystyle mathbf alpha vagi mizh zv yazkami vid nejroniv prihovanogo sharu i vihidnim nejronom 8 displaystyle mathbf theta koefciyent uperedzhenosti dlya nejroniv prihovanogo sharu Formalne vikladennyaNehaj f displaystyle varphi bud yaka neprervna sigmoyidna funkciya napriklad f 3 1 1 e 3 displaystyle varphi xi 1 1 e xi Todi yaksho dana bud yaka neperervna funkciya dijsnih zminnih f displaystyle f na 0 1 n displaystyle 0 1 n abo bud yaka insha kompaktna pidmnozhina Rn displaystyle R n i e gt 0 displaystyle varepsilon gt 0 todi isnuyut vektori w1 w2 wN a 8 displaystyle mathbf w 1 mathbf w 2 dots mathbf w N mathbf alpha mathbf theta ta parametrizovana funkciya G w a 8 0 1 n R displaystyle G mathbf cdot mathbf w mathbf alpha mathbf theta colon 0 1 n rightarrow R taka sho G x w a 8 f x lt e displaystyle G mathbf x mathbf w mathbf alpha mathbf theta f mathbf x lt varepsilon dlya vsih x 0 1 n displaystyle mathbf x in 0 1 n de G x w a 8 i 1Naif wiTx 8i displaystyle G mathbf x mathbf w mathbf alpha mathbf theta sum i 1 N alpha i varphi mathbf w i T mathbf x theta i ta wi Rn ai 8i R w w1 w2 wN a a1 a2 aN displaystyle mathbf w i in R n alpha i theta i in R mathbf w mathbf w 1 mathbf w 2 dots mathbf w N mathbf alpha alpha 1 alpha 2 dots alpha N ta 8 81 82 8N displaystyle mathbf theta theta 1 theta 2 dots theta N PosilannyaHassoun M 1995 Fundamentals of Artificial Neural Networks MIT Press p 48Div takozhTeorema zbizhnosti perceptronu Perceptron Winner take all