Дельта-правило — метод навчання перцептрону за принципом градієнтного спуску по поверхні помилки. Дельта-правило розвинулося з першого і другого правил Хебба. Його подальший розвиток привів до створення методу зворотного поширення помилки.
Правила Хебба
Перцептрон Розенблата у початковому його виконанні складався з фотоелементів, які, залежно від поданого на них сигналу виробляли сигнал логічної одиниці, або логічного нуля. Сигнали з фотоелементів надходили на зважений суматор (елементарний процесор, штучний нейрон) з пороговою функцією активації. Нейрон також видавав сигнал логічного нуля, або логічної одиниці . Мета навчання перцептрона полягала в тому, щоб при подачі на фотоелементи закодованого образу на його виході з'являлася логічна одиниця в разі належності поданого образу до заздалегідь певного класу і нуль в іншому випадку. Логіка навчання наступна: якщо сигнал перцептрона при деякому образі вірний, то нічого коригувати не потрібно, якщо немає — проводиться коригування ваги суматора. Правило коригування ваг запропоноване Хебом в 1949 році має наступний зміст:
«Якщо аксон клітини А знаходиться досить близько, щоб збуджувати клітку B, і неодноразово або постійно бере участь в її збудженні, то спостерігається певний процес росту або метаболічних змін в одній або обох клітинах, що веде до збільшення ефективності А, як однієї з збудливих клітин В ».
З вищенаведеної цитати помилково виводять 2 правила:
- Перше правило Хебба — Якщо сигнал перцептрона невірний, і дорівнює нулю, то необхідно збільшити ваги тих входів, на які була подана одиниця.
- Друге правило Хебба — Якщо сигнал перцептрона невірний і дорівнює одиниці, то необхідно зменшити вагу тих входів, на які була подана одиниця.
Правила застосовуються послідовно для всіх образів, на яких здійснюється навчання. На питання про те, чи прийде перцептрон до стійкого стану, коли він буде коректно класифікувати всі вхідні образи відповідає теорема збіжності перцептрона.
Дельта-правило
Власне дельта-правилом називають математичну, трохи загальнішу форму запису правил Хебба. Нехай вектор — вектор вхідних сигналів, а вектор — вектор сигналів, які повинні бути отримані від перцептрона під впливом вхідного вектора. Тут — кількість нейронів, що входять до перцептрону. Вхідні сигнали, поступивши на входи перцептрону, були зважені і підсумовані, в результаті чого отримано вектор вихідних значень перцептрона. Тоді можна визначити вектор помилки , розмірність якого збігається розмірністю вектором вихідних сигналів. Компоненти вектора помилок визначаються як різниця між очікуваним і реальним значенням вихідного сигналу нейрону перцептрона:
За таких позначеннях формулу для коригування j-ї ваги i-го нейрона можна записати так:
Номер сигналу змінюється в межах від одиниці до розмірності вхідного вектора . Номер нейрону змінюється в межах від одиниці до кількості нейронів . Величина — номер поточної ітерації навчання. Таким чином, вага вхідного сигналу нейрона змінюється у бік зменшення помилки пропорційно величині сумарної помилки нейрона. Часто вводять коефіцієнт пропорційності , на який множиться величина помилки. Цей коефіцієнт називають швидкістю навчання. Таким чином, підсумкова формула для коректування ваг зв'язків перцептрону має наступний вигляд:
Узагальнене дельта-правило
З метою розширення кола завдань, що вирішуються перцептроном, Уїдроу і Хофом була запропонована сигмоїдаальна функція активації для нейронів. Це дозволило перцептрону оперувати з неперервними сигналами, але виникла необхідність модифікації алгоритму навчання. Модифікований алгоритм спрямований на мінімізацію функції середньоквадратичної помилки:
Ця функція визначається матрицею вагових коефіцієнтів . Тут — номер нейрона, а — номер входу. Поверхня, що описується цією функцією має форму псевдопараболоіди. Завданням навчання є знаходження глобального мінімуму цієї поверхні. Одним із способів знаходження мінімуму є метод градієнтного спуску. Коригування ваг проводиться в напрямку антиградієнта поверхні:
Тут — коефіцієнт швидкості навчання.
Функція помилки є складною і залежить в першу чергу від вихідних сигналів перцептрона. Відповідно до правил диференціювання складних функцій:
Вихідний сигнал кожного нейрона визначається за формулою:
Тут — кількість входів перцептрона, — сигнал на j-му вході, а — функція активації. Тоді отримаємо:
Продиференціювавши функцію помилки за значенням вихідного сигналу, отримаємо:
Підставивши формули (**) і (***) у вираз (*) отримаємо вираз для коригування ваги j-го входу у i-го нейрона при будь-якій активаційний функції:
З цієї формули видно, що активаційна функція при використанні узагальненого дельта-правила повинна бути неперевно диференційована на всій осі абсцис. Перевагу мають функції активації з простою похідною (наприклад — або гіперболічний тангенс).
На основі дельта-правила Уїдроу і Хопфа був створений один з перших апаратних нейрокомп'ютерів Adaline (1960).
Примітки
- Можливий варіант використання замість сигналів
- Hebb DO — The Organization of Behavior. John Wiley & Sons, New York, 1949
- . habr.com (рос.). Архів оригіналу за 28 червня 2020. Процитовано 26 червня 2020.
- Ясницкий Л. Н. Введение в искусственный интеллект. М.: Издательский центр «Академия», 2005 — c. 30—32
- Widrow B., Hoff M.E. — Adaptive switching circuits. 1969 IRE WESTCON Conferencion Record. — New York, 1960
- Л. Н. Ясницкий — Введение в искусственный интеллект. — с.34-36
- Л. Н. Ясницкий — Введение в искусственный интеллект. — с.35
- Л. Н. Ясницкий — Введение в искусственный интеллект. — с.36
Див. також
Література
- Ясницкий Л. Н. Введение в искусственный интеллект. М.: Издательский центр «Академия», 2005. — 176с.
- Lakhmi C. Jain; N.M. Martin Fusion of Neural Networks, Fuzzy Systems and Genetic Algorithms: Industrial Applications. - CRC Press, CRC Press LLC, 1998
Вікіпедія, Українська, Україна, книга, книги, бібліотека, стаття, читати, завантажити, безкоштовно, безкоштовно завантажити, mp3, відео, mp4, 3gp, jpg, jpeg, gif, png, малюнок, музика, пісня, фільм, книга, гра, ігри, мобільний, телефон, android, ios, apple, мобільний телефон, samsung, iphone, xiomi, xiaomi, redmi, honor, oppo, nokia, sonya, mi, ПК, web, Інтернет
Delta pravilo metod navchannya perceptronu za principom gradiyentnogo spusku po poverhni pomilki Delta pravilo rozvinulosya z pershogo i drugogo pravil Hebba Jogo podalshij rozvitok priviv do stvorennya metodu zvorotnogo poshirennya pomilki Pravila HebbaPerceptron Rozenblata u pochatkovomu jogo vikonanni skladavsya z fotoelementiv yaki zalezhno vid podanogo na nih signalu viroblyali signal logichnoyi odinici abo logichnogo nulya Signali z fotoelementiv nadhodili na zvazhenij sumator elementarnij procesor shtuchnij nejron z porogovoyu funkciyeyu aktivaciyi Nejron takozh vidavav signal logichnogo nulya abo logichnoyi odinici Meta navchannya perceptrona polyagala v tomu shob pri podachi na fotoelementi zakodovanogo obrazu na jogo vihodi z yavlyalasya logichna odinicya v razi nalezhnosti podanogo obrazu do zazdalegid pevnogo klasu i nul v inshomu vipadku Logika navchannya nastupna yaksho signal perceptrona pri deyakomu obrazi virnij to nichogo koriguvati ne potribno yaksho nemaye provoditsya koriguvannya vagi sumatora Pravilo koriguvannya vag zaproponovane Hebom v 1949 roci maye nastupnij zmist Yaksho akson klitini A znahoditsya dosit blizko shob zbudzhuvati klitku B i neodnorazovo abo postijno bere uchast v yiyi zbudzhenni to sposterigayetsya pevnij proces rostu abo metabolichnih zmin v odnij abo oboh klitinah sho vede do zbilshennya efektivnosti A yak odniyeyi z zbudlivih klitin V Z vishenavedenoyi citati pomilkovo vivodyat 2 pravila Pershe pravilo Hebba Yaksho signal perceptrona nevirnij i dorivnyuye nulyu to neobhidno zbilshiti vagi tih vhodiv na yaki bula podana odinicya Druge pravilo Hebba Yaksho signal perceptrona nevirnij i dorivnyuye odinici to neobhidno zmenshiti vagu tih vhodiv na yaki bula podana odinicya Pravila zastosovuyutsya poslidovno dlya vsih obraziv na yakih zdijsnyuyetsya navchannya Na pitannya pro te chi prijde perceptron do stijkogo stanu koli vin bude korektno klasifikuvati vsi vhidni obrazi vidpovidaye teorema zbizhnosti perceptrona Delta praviloVlasne delta pravilom nazivayut matematichnu trohi zagalnishu formu zapisu pravil Hebba Nehaj vektor X x1 x2 xr xm displaystyle mathbf X x 1 x 2 x r x m vektor vhidnih signaliv a vektor D d1 d2 dk dn displaystyle mathbf D d 1 d 2 d k d n vektor signaliv yaki povinni buti otrimani vid perceptrona pid vplivom vhidnogo vektora Tut n displaystyle n kilkist nejroniv sho vhodyat do perceptronu Vhidni signali postupivshi na vhodi perceptronu buli zvazheni i pidsumovani v rezultati chogo otrimano vektor Y y1 y2 yk yn displaystyle mathbf Y y 1 y 2 y k y n vihidnih znachen perceptrona Todi mozhna viznachiti vektor pomilki E e1 e2 ek en displaystyle mathbf mathrm E e 1 e 2 e k e n rozmirnist yakogo zbigayetsya rozmirnistyu vektorom vihidnih signaliv Komponenti vektora pomilok viznachayutsya yak riznicya mizh ochikuvanim i realnim znachennyam vihidnogo signalu nejronu perceptrona E D Y displaystyle mathbf mathrm E D Y Za takih poznachennyah formulu dlya koriguvannya j yi vagi i go nejrona mozhna zapisati tak wj t 1 wj t eixj displaystyle w j t 1 w j t e i x j Nomer signalu j displaystyle j zminyuyetsya v mezhah vid odinici do rozmirnosti vhidnogo vektora m displaystyle m Nomer nejronu i displaystyle i zminyuyetsya v mezhah vid odinici do kilkosti nejroniv n displaystyle n Velichina t displaystyle t nomer potochnoyi iteraciyi navchannya Takim chinom vaga vhidnogo signalu nejrona zminyuyetsya u bik zmenshennya pomilki proporcijno velichini sumarnoyi pomilki nejrona Chasto vvodyat koeficiyent proporcijnosti h displaystyle eta na yakij mnozhitsya velichina pomilki Cej koeficiyent nazivayut shvidkistyu navchannya Takim chinom pidsumkova formula dlya korektuvannya vag zv yazkiv perceptronu maye nastupnij viglyad wj t 1 wj t heixj displaystyle w j t 1 w j t eta e i x j Uzagalnene delta praviloZ metoyu rozshirennya kola zavdan sho virishuyutsya perceptronom Uyidrou i Hofom bula zaproponovana sigmoyidaalna funkciya aktivaciyi dlya nejroniv Ce dozvolilo perceptronu operuvati z neperervnimi signalami ale vinikla neobhidnist modifikaciyi algoritmu navchannya Modifikovanij algoritm spryamovanij na minimizaciyu funkciyi serednokvadratichnoyi pomilki ϵ 12 i 1n di yi 2 displaystyle epsilon frac 1 2 sum i 1 n d i y i 2 Cya funkciya viznachayetsya matriceyu vagovih koeficiyentiv wij displaystyle w ij Tut i displaystyle i nomer nejrona a j displaystyle j nomer vhodu Poverhnya sho opisuyetsya ciyeyu funkciyeyu maye formu psevdoparaboloidi Zavdannyam navchannya ye znahodzhennya globalnogo minimumu ciyeyi poverhni Odnim iz sposobiv znahodzhennya minimumu ye metod gradiyentnogo spusku Koriguvannya vag provoditsya v napryamku antigradiyenta poverhni Dwij h ϵ wij displaystyle Delta w ij eta frac partial epsilon partial w ij Tut h displaystyle eta koeficiyent shvidkosti navchannya Funkciya pomilki ye skladnoyu i zalezhit v pershu chergu vid vihidnih signaliv perceptrona Vidpovidno do pravil diferenciyuvannya skladnih funkcij ϵ wij ϵ yi yi wij displaystyle frac partial epsilon partial w ij frac partial epsilon partial y i frac partial y i partial w ij Vihidnij signal yi displaystyle y i kozhnogo nejrona viznachayetsya za formuloyu yi f S S j 1mwijxj displaystyle y i operatorname f S S sum j 1 m w ij x j Tut m displaystyle m kilkist vhodiv perceptrona xj displaystyle x j signal na j mu vhodi a f S displaystyle operatorname f S funkciya aktivaciyi Todi otrimayemo yi wij f S S S wij f S xj displaystyle frac partial y i partial w ij frac partial operatorname f S partial S frac partial S partial w ij f prime S x j Prodiferenciyuvavshi funkciyu pomilki za znachennyam vihidnogo signalu otrimayemo ϵ yi di yi displaystyle frac partial epsilon partial y i d i y i Pidstavivshi formuli i u viraz otrimayemo viraz dlya koriguvannya vagi j go vhodu u i go nejrona pri bud yakij aktivacijnij funkciyi Dwij h di yi f Si xj displaystyle Delta w ij eta d i y i f prime S i x j Z ciyeyi formuli vidno sho aktivacijna funkciya pri vikoristanni uzagalnenogo delta pravila povinna buti neperevno diferencijovana na vsij osi abscis Perevagu mayut funkciyi aktivaciyi z prostoyu pohidnoyu napriklad abo giperbolichnij tangens Na osnovi delta pravila Uyidrou i Hopfa buv stvorenij odin z pershih aparatnih nejrokomp yuteriv Adaline 1960 PrimitkiMozhlivij variant vikoristannya zamist 0 1 displaystyle 0 1 signaliv 1 1 displaystyle 1 1 Hebb DO The Organization of Behavior John Wiley amp Sons New York 1949 habr com ros Arhiv originalu za 28 chervnya 2020 Procitovano 26 chervnya 2020 Yasnickij L N Vvedenie v iskusstvennyj intellekt M Izdatelskij centr Akademiya 2005 c 30 32 Widrow B Hoff M E Adaptive switching circuits 1969 IRE WESTCON Conferencion Record New York 1960 L N Yasnickij Vvedenie v iskusstvennyj intellekt s 34 36 L N Yasnickij Vvedenie v iskusstvennyj intellekt s 35 L N Yasnickij Vvedenie v iskusstvennyj intellekt s 36Div takozhShtuchna nejronna merezha Perceptron Metod zvorotnogo poshirennya pomilkiLiteraturaYasnickij L N Vvedenie v iskusstvennyj intellekt M Izdatelskij centr Akademiya 2005 176s Lakhmi C Jain N M Martin Fusion of Neural Networks Fuzzy Systems and Genetic Algorithms Industrial Applications CRC Press CRC Press LLC 1998