Виключення або дропаут (від англ. dropout) — метод регуляризації штучних нейронних мереж, призначений для запобігання перенавчання мережі. Метод значно підвищує швидкість навчання.
Суть методу полягає в тому, що в процесі навчання із загальної мережі випадковим чином виділяється підмережа, для якої здійснюється навчання. Після навчання обраної підмережі випадковим чином обирається нова підмережа і навчання продовжується. Вибір нейронів для підмережі відбувається випадковим чином з ймовірністю, яка називається коефіцієнтом дропаута. Більш навчені нейрони отримують в мережі більшу вагу.
Під час тестування дропаут не застосовується.
Див. також
- (Згорткова нейронна мережа § Виключення)
Посилання
- Nitish Srivastava, Geoffrey Hinton, Alex Krizhevsky, Ilya Sutskever, Ruslan Salakhutdinov. Dropout: A Simple Way to Prevent Neural Networks from Overfitting [ 5 грудня 2019 у Wayback Machine.]
Вікіпедія, Українська, Україна, книга, книги, бібліотека, стаття, читати, завантажити, безкоштовно, безкоштовно завантажити, mp3, відео, mp4, 3gp, jpg, jpeg, gif, png, малюнок, музика, пісня, фільм, книга, гра, ігри, мобільний, телефон, android, ios, apple, мобільний телефон, samsung, iphone, xiomi, xiaomi, redmi, honor, oppo, nokia, sonya, mi, ПК, web, Інтернет
Viklyuchennya abo dropaut vid angl dropout metod regulyarizaciyi shtuchnih nejronnih merezh priznachenij dlya zapobigannya perenavchannya merezhi Metod znachno pidvishuye shvidkist navchannya Sut metodu polyagaye v tomu sho v procesi navchannya iz zagalnoyi merezhi vipadkovim chinom vidilyayetsya pidmerezha dlya yakoyi zdijsnyuyetsya navchannya Pislya navchannya obranoyi pidmerezhi vipadkovim chinom obirayetsya nova pidmerezha i navchannya prodovzhuyetsya Vibir nejroniv dlya pidmerezhi vidbuvayetsya vipadkovim chinom z jmovirnistyu yaka nazivayetsya koeficiyentom dropauta Bilsh navcheni nejroni otrimuyut v merezhi bilshu vagu Pid chas testuvannya dropaut ne zastosovuyetsya Div takozhZgortkova nejronna merezha ViklyuchennyaPosilannyaNitish Srivastava Geoffrey Hinton Alex Krizhevsky Ilya Sutskever Ruslan Salakhutdinov Dropout A Simple Way to Prevent Neural Networks from Overfitting 5 grudnya 2019 u Wayback Machine