Swish функція це математична функція, що описується виразом:
де β є константою або параметром, який залежить від типу моделі.
Похідна функції .
Застосування
Застосовується в якості функції активації штучного нейрона. У 2017 році, провівши аналіз даних , дослідники з Google стверджували, що використання функції swish як функції активації в штучних нейронних мережах покращує продуктивність порівняно з функціями ReLU та сигмоподібної форми. Вважається, що однією з причин покращення є те, що функція swish допомагає полегшити проблему зникаючого градієнта під час зворотного поширення.
Див. також
Примітки
- Ramachandran, Prajit; Zoph, Barret; Le, Quoc V. (16 жовтня 2017). Swish: A Self-Gated Activation Function (PDF). v1. Google Brain. arXiv:1710.05941v1. (PDF) оригіналу за 18 червня 2020. Процитовано 18 червня 2020.
- Ramachandran, Prajit; Zoph, Barret; Le, Quoc V. (27 жовтня 2017). Searching for Activation Functions (PDF). v2. Google Brain. arXiv:1710.05941v2. (PDF) оригіналу за 18 червня 2020. Процитовано 18 червня 2020.
- Serengil, Sefik Ilkin (21 серпня 2018). Swish as Neural Networks Activation Function. Machine Learning, Math. оригіналу за 18 червня 2020. Процитовано 18 червня 2020.
Вікіпедія, Українська, Україна, книга, книги, бібліотека, стаття, читати, завантажити, безкоштовно, безкоштовно завантажити, mp3, відео, mp4, 3gp, jpg, jpeg, gif, png, малюнок, музика, пісня, фільм, книга, гра, ігри, мобільний, телефон, android, ios, apple, мобільний телефон, samsung, iphone, xiomi, xiaomi, redmi, honor, oppo, nokia, sonya, mi, ПК, web, Інтернет
Swish funkciya ce matematichna funkciya sho opisuyetsya virazom swish x x sigmoid bx x1 e bx displaystyle operatorname swish x x times operatorname sigmoid beta x frac x 1 e beta x de b ye konstantoyu abo parametrom yakij zalezhit vid tipu modeli Pohidna funkciyi f x f x s x 1 f x displaystyle f x f x sigma x 1 f x ZastosuvannyaZastosovuyetsya v yakosti funkciyi aktivaciyi shtuchnogo nejrona U 2017 roci provivshi analiz danih doslidniki z Google stverdzhuvali sho vikoristannya funkciyi swish yak funkciyi aktivaciyi v shtuchnih nejronnih merezhah pokrashuye produktivnist porivnyano z funkciyami ReLU ta sigmopodibnoyi formi Vvazhayetsya sho odniyeyu z prichin pokrashennya ye te sho funkciya swish dopomagaye polegshiti problemu znikayuchogo gradiyenta pid chas zvorotnogo poshirennya Div takozhPeredavalna funkciya shtuchnogo nejronaPrimitkiRamachandran Prajit Zoph Barret Le Quoc V 16 zhovtnya 2017 Swish A Self Gated Activation Function PDF v1 Google Brain arXiv 1710 05941v1 PDF originalu za 18 chervnya 2020 Procitovano 18 chervnya 2020 Ramachandran Prajit Zoph Barret Le Quoc V 27 zhovtnya 2017 Searching for Activation Functions PDF v2 Google Brain arXiv 1710 05941v2 PDF originalu za 18 chervnya 2020 Procitovano 18 chervnya 2020 Serengil Sefik Ilkin 21 serpnya 2018 Swish as Neural Networks Activation Function Machine Learning Math originalu za 18 chervnya 2020 Procitovano 18 chervnya 2020