Автокодува́льник (англ. autoencoder) — це один із типів штучних нейронних мереж, який використовують для навчання ефективних кодувань немічених даних (некерованого навчання). Це кодування перевіряється та вдосконалюється шляхом намагання відтворювати вхід із цього кодування. Автокодувальник навчається подання (кодування) для набору даних, зазвичай для зниження розмірності, шляхом тренування цієї мережі ігнорувати незначущі дані («шум»).
Існують варіанти, спрямовані на змушування навчених подань набувати корисних властивостей. Прикладами є регуляризовані автокодувальники (розріджені, знешумлювальні та стягувальні, англ. Sparse, Denoising, Contractive відповідно), що є дієвими в навчанні подань для пізніших задач класифікування, та варіаційні (англ. Variational) автокодувальники, із застосуванням як породжувальних моделей. Автокодувальники застосовують у багатьох задачах, від розпізнавання облич до оволодівання семантичним значенням слів.
Базова архітектура
Автокодувальник має дві основні частини: кодувальник (англ. encoder), що відображує вхід до коду, та декодувальник (англ. decoder), що відображує код до відбудови входу.
Найпростішим способом виконувати задачу копіювання ідеальним чином було би просто дублювати сигнал. Натомість, автокодувальники зазвичай змушено відбудовувати вхід приблизно, залишаючи в копії лише найдоречніші аспекти даних.
Ідея автокодувальників була популярною протягом десятиріч. Перші застосування сходять до 1980-х років. Їхніми найтрадиційнішими застосуваннями були знижування розмірності та навчання ознак, але цю концепцію стали застосовувати ширше, для навчання породжувальних моделей даних. Деякі з найпотужніших ШІ у 2010-ті роки містили автокодувальники, вкладені всередині глибоких нейронних мереж.
Найпростішою формою автокодувальника є нерекурентна нейронна мережа прямого поширення, подібна до одношарових перцептронів, що беруть участь у багатошарових перцептронах (БШП), з використанням шару входу та шару виходу, з'єднаних одним або декількома прихованими шарами. Шар виходу має таке саме число вузлів (нейронів), що й шар входу. Її метою є відбудовувати свої входи (мінімізуючи різницю між входом та виходом) замість передбачувати цільову змінну за заданих входів . Таким чином, автокодувальники навчаються некеровано.
Автокодувальник складається з двох частин, кодувальника та декодувальника, які може бути визначено як переходи та , такі, що
У найпростішому випадку, якщо взяти один прихований шар, кодувальна стадія автокодувальника бере вхід та відображує його до :
Це зображення зазвичай називають кодом, латентними змінними, або латентним поданням. Тут є поелементною передавальною функцією, такою як сигмоїда або зрізаний лінійний вузол. є матрицею ваг, а є вектором зсуву. Ваги та зсуви зазвичай ініціалізують випадковим чином, а потім ітеративно уточнюють протягом тренування шляхом зворотного поширення. Після цього декодувальна стадія автокодувальника відображує у відбудову такої ж форми, що й :
де , та для декодувальника можуть бути непов'язаними з відповідними , та для кодувальника.
Автокодувальники тренують мінімізувати похибки відбудови (такі як середньоквадратичні похибки), що часто називають «втратами» (англ. «loss»):
де зазвичай усереднюють над тренувальним набором даних.
Як було зазначено вище, автокодувальне тренування виконується шляхом зворотного поширення цієї похибки, як і в інших нейронних мережах прямого поширення.
Якщо простір ознак має меншу розмірність, ніж простір входів , то вектор ознак можливо розглядати як стиснене подання входу . Це у випадку понижувальних (англ. undercomplete) автокодувальників. Якщо приховані шари є більшими (підвищувальними, англ. overcomplete), або такими же, як і шар входу, або якщо прихованим вузлам надано достатньої ємності, то автокодувальник потенційно може навчитися тотожної функції, й стати марним. Проте експериментальні результати виявили, що підвищувальні автокодувальники все ж можуть навчатися корисних подань. В ідеальній постановці розмірність коду та ємність моделі можливо встановлювати на основі складності модельованого розподілу даних. Одним зі способів робити це є використання різновидів цієї моделі, відомих як регуляризовані автокодувальники (англ. Regularized Autoencoders).
Різновиди
Регуляризовані автокодувальники
Існують різні методики запобігання навчанню автокодувальниками тотожної функції та покращення їхньої здатності вловлювати важливу інформацію та навчатися цінніших подань.
Розріджений автокодувальник (РАК)
Навчання подань у спосіб, який заохочує розрідженість, покращує продуктивність на задачах класифікування. Розріджені автокодувальники (англ. Sparse autoencoders, SAE) можуть містити більше (а не менше) прихованих вузлів, аніж входів, але лише невеликому числу цих прихованих вузлів дозволено бути збудженими одночасно (власне, розрідженість). Це обмеження змушує модель реагувати на унікальні статистичні ознаки тренувальних даних.
Зокрема, розріджений автокодувальник є автокодувальником, чий тренувальний критерій містить розріджувальний штраф шару коду .
Якщо пригадати, що , то цей штраф заохочує модель збуджувати (тобто, значення виходу близько 1) на основі даних входу особливі області мережі, одночасно гальмуючи всі інші нейрони (тобто, щоби вони мали значення виходу близько 0).
Цієї розрідженості можливо досягати шляхом формулювання членів штрафу різними способами.
- Одним зі способів є використовувати розходження Кульбака — Лейблера (КЛ, KL). Нехай
- буде усередненим збудженням прихованого вузла (усередненим над тренувальних зразків). Запис вказує на значення входу, що ви́кликало це збудження. Щоби заохотити більшість нейронів бути не збудженими, потрібно бути близьким до 0. Тому цей метод накладає обмеження , де є параметром розрідженості, значенням, близьким до 0. Член штрафу набуває вигляду, який штрафує за значне відхиляння від , використовуючи розходження КЛ:
- де є підсумовуванням над прихованих вузлів у прихованім шарі, а є КЛ-розходженням між випадковою змінною Бернуллі з середнім та випадковою змінною Бернуллі з середнім .
- Іншим способом досягання розрідженості є застосування до збудження членів регуляризації L1 або L2, масштабованих певним параметром . Наприклад, у випадку L1 функція втрат набуває вигляду
- Наступною пропонованою стратегією примушування до розрідженості є занулювати вручну всі крім найсильніших збуджень прихованих вузлів (k-розріджений автокодувальник, англ. k-sparse autoencoder). k-розріджений автокодувальник ґрунтується на лінійному автокодувальнику (тобто, з лінійною передавальною функцією) та ув'язаних вагах (англ. tied weights). Визначення найсильніших збуджень можливо досягати впорядковуванням цих збуджень та залишанням лише перших k значень, або застосовуванням випрямляльних прихованих вузлів з порогами, які адаптивно підлаштовуються доти, поки не буде виявлено k найбільших збуджень. Це обирання діє як згадані раніше члени регуляризації, оскільки запобігає відбудовуванню моделлю входу із застосуванням занадто великого числа нейронів.
Знешумлювальний автокодувальник (ЗАК)
Знешумлювальні автокодувальники (ЗАК, англ. denoising autoencoders, DAE) намагаються досягати доброго подання шляхом зміни критерію відбудови.
Дійсно, ЗАКи беруть частково зіпсований вхід, і тренуються відновлювати первинний неспотворений вхід. На практиці метою знешумлювальних кодувальників є очищування зіпсованого входу, або знешумлювання. Цьому підходові притаманні два припущення:
- Подання вищого рівня є відносно стабільними й стійкими до псування входу;
- Щоби виконувати знешумлювання добре, моделі потрібно виділяти ознаки, які вловлюють корисну структуру в розподілі входу.
Іншими словами, знешумлювання пропагується як тренувальний критерій для навчання виділяння корисних ознак, що утворюватимуть кращі подання входу вищого рівня.
Процес тренування ЗАК працює наступним чином:
- Початковий вхід спотворюється в шляхом стохастичного відображення .
- Цей пошкоджений вхід відтак відображується до прихованого подання таким же процесом, як і в стандартного автокодувальника, .
- Із цього прихованого подання модель відбудовує .
Параметри моделі та тренуються мінімізувати усереднену над усіма тренувальними даними похибку відбудовування, зокрема, мінімізуючи різницю між та первинним непошкодженим входом . Зауважте, що кожного разу, як моделі подається випадковий зразок , на основі стохастично породжується нова пошкоджена версія.
Вищезгаданий тренувальний процес можливо застосовувати із будь-яким видом процесу пошкоджування. Деякими прикладами можуть бути адитивний ізотропний гауссів шум, маскувальний шум (випадково обрана частка входу кожного зразка примусово встановлюється в 0) або сольовий-та-перцевий шум (випадково обрана частка входу кожного зразка примусово встановлюється у своє мінімальне або максимальне значення з рівномірною ймовірністю).
Пошкоджування входу виконується лише під час тренування. Після тренування пошкоджування не додається.
Стягувальний автокодувальник (САК)
Стягувальний автокодувальник (англ. contractive autoencoder, CAE) додає до своєї цільової функції явний регуляризатор, що змушує модель навчатися кодування стійко до незначних варіацій значень входу. Цей регуляризатор відповідає нормі Фробеніуса матриці Якобі збуджень кодувальника відносно входу. Оскільки цей штраф застосовується лише до тренувальних зразків, цей член змушує модель навчатися корисної інформації про тренувальний розподіл. Остаточна цільова функція має наступний вигляд:
Цей автокодувальник названо стягувальним, оскільки він заохочується відображувати окіл точок входу до меншого околу точок виходу.
ЗАК є пов'язаним із САК: на границі малого гауссового шуму входу ЗАКи роблять функцію відбудови стійкою до малих, але скінченного розміру, збурень входу, тоді як САКи роблять витягнуті ознаки стійкими до нескінченно малих збурень входу.
Конкретний автокодувальник
Конкретний автокодувальник (англ. concrete autoencoder) розроблено для обирання дискретних ознак. Конкретний автокодувальник примушує латентний простір складатися лише із вказаного користувачем числа ознак. Конкретний автокодувальник використовує неперервне [en] категорійного розподілу, щоби дозволити градієнтам проходити крізь шар обирання ознак, що уможливлює застосування стандартного зворотного поширення для навчання оптимальної підмножини ознак входу, яка мінімізує втрати відбудови.
Варіаційний автокодувальник (ВАК)
Варіаційні автокодувальники (ВАКи, англ. variational autoencoders, VAEs) належать до сімейств [en]. Незважаючи на архітектурні подібності з базовими автокодувальниками, ВАКи є архітектурою з відмінними цілями та з абсолютно іншим математичним формулюванням. Латентний простір у цьому випадку складається з суміші розподілів замість фіксованого вектору.
За заданого набору даних входу , описуваного невідомою функцією ймовірності , та багатовимірного вектору латентного кодування , метою є змоделювати ці дані як розподіл , де визначено як набір таких параметрів цієї мережі, що .
Переваги глибини
Автокодувальники часто тренують із одношаровим кодувальником та одношаровим декодувальником, але використання багатошарових (глибоких) кодувальників та декодувальників пропонує багато переваг.
- Глибина може експоненційно скорочувати обчислювальну витратність подання деяких функцій.
- Глибина може експоненційно зменшувати кількість тренувальних даних, потрібних для навчання деяких функцій.
- Експериментально встановлено, що глибокі автокодувальники дають краще стиснення у порівнянні з поверхневими або лінійними автокодувальниками.
Тренування
Для тренування багатошарових глибоких автокодувальників Джефрі Гінтон розробив методику глибокої мережі переконань. Його метод полягає в опрацюванні кожної сусідньої пари з двох шарів як обмеженої машини Больцмана, щоби попереднє тренування наближувало добрий розв'язок, і в наступнім застосуванні зворотного поширення для тонкого налаштування результатів.
Дослідники дискутували, чи буде спільне тренування (тобто тренування всієї архітектури разом із єдиною глобальною метою відбудовування для оптимізування) для глибоких автокодувальників кращим. Дослідження 2015 року показало, що спільне тренування навчається кращих моделей разом з показовішими ознаками для класифікування, у порівнянні з пошаровим методом. Проте їхні експерименти показали, що успіх спільного тренування сильно залежить від прийнятих стратегій регуляризації.
Застосування
Двома основними застосуваннями автокодувальників є знижування розмірності та інформаційний пошук, але сучасні різновиди застосовували й до інших задач.
Знижування розмірності
Знижування розмірності було одним із перших застосувань глибокого навчання.
Гінтон для свого дослідження 2006 року попередньо тренував багатошаровий автокодувальник стосом ОМБ, а потім використовував їхні ваги, щоби ініціалізувати автокодувальник із поступово меншими прихованими шарами, поки не вперся у вузьке місце з 30 нейронів. Отримані в результаті 30 вимірів коду давали меншу похибку відбудови в порівнянні з першими 30 компонентами методу головних компонент (МГК), і навчалися подання, що було якісно легшим для інтерпретування, чітко відокремлюючи кластери даних.
Подавання вимірів може покращувати продуктивність у таких задачах як класифікування. Дійсно, ознакою якості знижування розмірності є розміщування семантично пов'язаних зразків один біля одного.
Метод головних компонент
Якщо застосовуються лінійні передавальні функції, або лише єдиний сигмоїдний прихований шар, то оптимальний розв'язок для автокодувальника є тісно пов'язаним із методом головних компонент (МГК). Ваги автокодувальника з єдиним прихованим шаром розміру (де є меншим за розмір входу) охоплюють той самий векторний підпростір, що охоплюється й першими головними компонентами, а вихід автокодувальника є ортогональною проєкцією на цей підпростір. Ваги автокодувальника не дорівнюють головним компонентам, і загалом не є ортогональними, проте головні компоненти може бути відновлено з них шляхом застосування сингулярного розкладу матриці.
Проте потенціал автокодувальників полягає у їхній нелінійності, що дозволяє цій моделі навчатися потужніших узагальнень порівняно з МГК та відбудовувати вхід із значно нижчими втратами інформації.
Інформаційний пошук
Інформаційний пошук виграє́ зокрема завдяки зниженню розмірності, бо пошук в певних типах просторів низької вимірності можете ставати дієвішим. Автокодувальники дійсно застосовували до семантичного гешування, запропонованого [en] та Гінтоном 2007 року. Шляхом тренування цього алгоритму виробляти двійковий код низької вимірності, всі записи бази даних може бути збережено в геш-таблиці, що відображує вектори двійкового коду на записи. Ця таблиця відтак підтримуватиме інформаційний пошук, повертаючи всі записи з таким же двійковим кодом, як і в запиту, або дещо менш подібні записи шляхом перекидання деяких бітів із кодування запиту.
Виявляння аномалій
Іншим застосуванням для автокодувальників є виявляння аномалій. Шляхом навчання відтворювати найпомітніші ознаки в тренувальних даних за деякого з описаних вище обмежень цю модель заохочують навчатися точно відтворювати найчастіше спостережувані характеристики. Стикаючись із аномаліями, модель повинна погіршувати свою відтворювальну продуктивність. В більшості випадків для тренування автокодувальника використовують лише дані з нормальними зразками, в інших частота аномалій є невеликою в порівнянні з набором спостережень, тож їхнім внеском до навченого подання можливо нехтувати. Після тренування автокодувальник точно відбудовуватиме «нормальні» дані, в той же час зазнаючи невдач у цьому з незнайомими аномальними даними. Похибку відбудови (похибку між первинними даними та їхньою низьковимірною відбудовою) використовують як показник аномальності для виявляння аномалій.
Проте нещодавні публікації показали, що певні автокодувальні моделі можуть, як не дивно, бути дуже вправними у відбудовуванні аномальних зразків, і відтак бути нездатними надійно виконувати виявляння аномалій.
Обробка зображень
Характеристики автокодувальників є корисними в обробці зображень.
Один із прикладів можливо знайти у стисканні зображень із втратами, де автокодувальники перевершували інші підходи, й довели конкурентноспроможність у порівнянні з JPEG 2000.
Іншим корисним застосуванням автокодувальників у попередній обробці зображень є знешумлювання зображень.
Автокодувальники знайшли застосування у вимогливіших контекстах, таких як медична візуалізація, де їх використовували як для знешумлювання зображень, так і для [en]. У діагностиці за допомогою зображень, в експериментах застосовували автокодувальники для виявляння раку молочної залози та для моделювання зв'язку між когнітивним спадом хвороби Альцгеймера та латентними ознаками автокодувальника, натренованого за допомогою МРТ.
Пошук ліків
2019 року молекули, породжені варіаційними автокодувальниками, було перевірено експериментально на мишах.
Передбачування популярності
Нещодавно система складених автокодувальників (англ. stacked autoencoder) продемонструвала обнадійливі результати в передбачуванні популярності публікацій у соціальних мережах, що є корисним для стратегій реклами через Інтернет.
Машинний переклад
Автокодувальник застосовують для машинного перекладу, що зазвичай називають нейронним машинним перекладом(НМП). На відміну від стандартних автокодувальників, вихід не збігається із входом — його мова є іншою. В НМП тексти розглядають як послідовності для кодування в процедурі навчання, тоді як на декодувальому боці породжуються послідовності цільовою мовою. Мовно-специфічні автокодувальники включають до навчальної процедури додаткові мовознавчі ознаки, такі як ознаки розкладу китайської мови.
Див. також
Примітки
- Kramer, Mark A. (1991). Nonlinear principal component analysis using autoassociative neural networks (PDF). AIChE Journal. 37 (2): 233—243. doi:10.1002/aic.690370209. (англ.)
- Goodfellow, Ian; Bengio, Yoshua; Courville, Aaron (2016). . MIT Press. ISBN . Архів оригіналу за 17 березня 2021. Процитовано 20 травня 2022. (англ.)
- Vincent, Pascal; Larochelle, Hugo (2010). Stacked Denoising Autoencoders: Learning Useful Representations in a Deep Network with a Local Denoising Criterion. Journal of Machine Learning Research. 11: 3371—3408. (англ.)
- Welling, Max; Kingma, Diederik P. (2019). An Introduction to Variational Autoencoders. Foundations and Trends in Machine Learning. 12 (4): 307—392. arXiv:1906.02691. Bibcode:2019arXiv190602691K. doi:10.1561/2200000056. S2CID 174802445. (англ.)
- Hinton GE, Krizhevsky A, Wang SD. Transforming auto-encoders. [ 12 листопада 2020 у Wayback Machine.] In International Conference on Artificial Neural Networks 2011 Jun 14 (pp. 44-51). Springer, Berlin, Heidelberg. (англ.)
- Liou, Cheng-Yuan; Huang, Jau-Chi; Yang, Wen-Chie (2008). Modeling word perception using the Elman network. Neurocomputing. 71 (16–18): 3150. doi:10.1016/j.neucom.2008.04.030. (англ.)
- Liou, Cheng-Yuan; Cheng, Wei-Chen; Liou, Jiun-Wei; Liou, Daw-Ran (2014). Autoencoder for words. Neurocomputing. 139: 84—96. doi:10.1016/j.neucom.2013.09.055. (англ.)
- Schmidhuber, Jürgen (January 2015). Deep learning in neural networks: An overview. Neural Networks. 61: 85—117. arXiv:1404.7828. doi:10.1016/j.neunet.2014.09.003. PMID 25462637. S2CID 11715509. (англ.)
- Hinton, G. E., & Zemel, R. S. (1994). Autoencoders, minimum description length and Helmholtz free energy. In Advances in neural information processing systems 6 (pp. 3-10). (англ.)
- Diederik P Kingma; Welling, Max (2013). Auto-Encoding Variational Bayes. arXiv:1312.6114 [stat.ML]. (англ.)
- Generating Faces with Torch, Boesen A., Larsen L. and Sonderby S.K., 2015 torch.ch/blog/2015/11/13/gan.html (англ.)
- (2015). 4. . Basic Books. "Deeper into the Brain" subsection. ISBN . (англ.)
- Кривохата, А. Г. (2020). (PDF) (кандидатська дисертація). Запоріжжя: ЗНУ. с. 64. Архів оригіналу (PDF) за 18 червня 2021. Процитовано 18 червня 2021.
- Андросов, Д. В. (2020). (PDF) (бакалаврська дипломна робота). Київ: НТУУ КПІ. с. 24. Архів оригіналу (PDF) за 18 червня 2021. Процитовано 18 червня 2021.
- Bengio, Y. (2009). (PDF). Foundations and Trends in Machine Learning. 2 (8): 1795—7. CiteSeerX 10.1.1.701.9550. doi:10.1561/2200000006. PMID 23946944. Архів оригіналу (PDF) за 23 грудня 2015. Процитовано 20 січня 2016. (англ.)
- Frey, Brendan; Makhzani, Alireza (19 грудня 2013). k-Sparse Autoencoders. arXiv:1312.5663. Bibcode:2013arXiv1312.5663M. (англ.)
- Ng, A. (2011). Sparse autoencoder [ 7 травня 2021 у Wayback Machine.]. CS294A Lecture notes, 72(2011), 1-19. (англ.)
- Nair, Vinod; Hinton, Geoffrey E. (2009). 3D Object Recognition with Deep Belief Nets. Proceedings of the 22Nd International Conference on Neural Information Processing Systems. NIPS'09. USA: Curran Associates Inc.: 1339—1347. ISBN . (англ.)
- Zeng, Nianyin; Zhang, Hong; Song, Baoye; Liu, Weibo; Li, Yurong; Dobaie, Abdullah M. (17 січня 2018). Facial expression recognition via learning deep sparse autoencoders. Neurocomputing. 273: 643—649. doi:10.1016/j.neucom.2017.08.043. ISSN 0925-2312. (англ.)
- Arpit, Devansh; Zhou, Yingbo; Ngo, Hung; Govindaraju, Venu (2015). Why Regularized Auto-Encoders learn Sparse Representation?. arXiv:1505.05561 [stat.ML]. (англ.)
- Makhzani, Alireza; Frey, Brendan (2013). K-Sparse Autoencoders. arXiv:1312.5663 [cs.LG]. (англ.)
- Abid, Abubakar; Balin, Muhammad Fatih; Zou, James (27 січня 2019). Concrete Autoencoders for Differentiable Feature Selection and Reconstruction. arXiv:1901.09346 [cs.LG]. (англ.)
- Hinton, G. E.; Salakhutdinov, R.R. (28 липня 2006). Reducing the Dimensionality of Data with Neural Networks. Science. 313 (5786): 504—507. Bibcode:2006Sci...313..504H. doi:10.1126/science.1127647. PMID 16873662. S2CID 1658773. (англ.)
- Zhou, Yingbo; Arpit, Devansh; Nwogu, Ifeoma; Govindaraju, Venu (2014). Is Joint Training Better for Deep Auto-Encoders?. arXiv:1405.1380 [stat.ML]. (англ.)
- R. Salakhutdinov and G. E. Hinton, “Deep boltzmann machines,” in AISTATS, 2009, pp. 448–455. (англ.)
- . 12 липня 2019. Архів оригіналу за 20 липня 2019. Процитовано 20 червня 2021.
- Salakhutdinov, Ruslan; Hinton, Geoffrey (1 липня 2009). Semantic hashing. International Journal of Approximate Reasoning. Special Section on Graphical Models and Information Retrieval. 50 (7): 969—978. doi:10.1016/j.ijar.2008.11.006. ISSN 0888-613X. (англ.)
- Bourlard, H.; Kamp, Y. (1988). . Biological Cybernetics. 59 (4–5): 291—294. doi:10.1007/BF00332918. PMID 3196773. S2CID 206775335. Архів оригіналу за 27 червня 2021. Процитовано 20 червня 2021. (англ.)
- Chicco, Davide; Sadowski, Peter; Baldi, Pierre (2014). Deep autoencoder neural networks for gene ontology annotation predictions. . с. 533. doi:10.1145/2649387.2649442. hdl:11311/964622. ISBN . S2CID 207217210. Архів оригіналу за 9 травня 2021. Процитовано 20 червня 2021. (англ.)
- Plaut, E (2018). From Principal Subspaces to Principal Components with Linear Autoencoders. arXiv:1804.10253 [stat.ML]. (англ.)
- Sakurada, M., & Yairi, T. (2014, December). Anomaly detection using autoencoders with nonlinear dimensionality reduction. In Proceedings of the MLSDA 2014 2nd Workshop on Machine Learning for Sensory Data Analysis (p. 4). ACM. (англ.)
- An, J., & Cho, S. (2015). Variational autoencoder based anomaly detection using reconstruction probability. Special Lecture on IE, 2, 1-18. (англ.)
- Zhou, C., & Paffenroth, R. C. (2017, August). Anomaly detection with robust deep autoencoders. In Proceedings of the 23rd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining (pp. 665-674). ACM. (англ.)
- Ribeiro, Manassés; Lazzaretti, André Eugênio; Lopes, Heitor Silvério (2018). A study of deep convolutional auto-encoders for anomaly detection in videos. Pattern Recognition Letters. 105: 13—22. doi:10.1016/j.patrec.2017.07.016. (англ.)
- Nalisnick, Eric; Matsukawa, Akihiro; Teh, Yee Whye; Gorur, Dilan; Lakshminarayanan, Balaji (24 лютого 2019). Do Deep Generative Models Know What They Don't Know?. arXiv:1810.09136 [stat.ML]. (англ.)
- Xiao, Zhisheng; Yan, Qing; Amit, Yali (2020). . Advances in Neural Information Processing Systems (англ.). 33. arXiv:2003.02977. Архів оригіналу за 24 червня 2021. Процитовано 20 червня 2021. (англ.)
- Theis, Lucas; Shi, Wenzhe; Cunningham, Andrew; Huszár, Ferenc (2017). Lossy Image Compression with Compressive Autoencoders. arXiv:1703.00395 [stat.ML]. (англ.)
- Balle, J; Laparra, V; Simoncelli, EP (April 2017). End-to-end optimized image compression. International Conference on Learning Representations. arXiv:1611.01704. (англ.)
- Cho, K. (2013, February). Simple sparsification improves sparse denoising autoencoders in denoising highly corrupted images. In International Conference on Machine Learning (pp. 432-440). (англ.)
- Cho, Kyunghyun (2013). Boltzmann Machines and Denoising Autoencoders for Image Denoising. arXiv:1301.3468 [stat.ML]. (англ.)
- Buades, A.; Coll, B.; Morel, J. M. (2005). . Multiscale Modeling & Simulation. 4 (2): 490—530. doi:10.1137/040616024. Архів оригіналу за 24 червня 2021. Процитовано 20 червня 2021. (англ.)
- Gondara, Lovedeep (December 2016). Medical Image Denoising Using Convolutional Denoising Autoencoders. 2016 IEEE 16th International Conference on Data Mining Workshops (ICDMW). Barcelona, Spain: IEEE: 241—246. arXiv:1608.04667. Bibcode:2016arXiv160804667G. doi:10.1109/ICDMW.2016.0041. ISBN . S2CID 14354973. (англ.)
- Zeng, Kun; Yu, Jun; Wang, Ruxin; Li, Cuihua; Tao, Dacheng (January 2017). Coupled Deep Autoencoder for Single Image Super-Resolution. IEEE Transactions on Cybernetics. 47 (1): 27—37. doi:10.1109/TCYB.2015.2501373. ISSN 2168-2267. PMID 26625442. S2CID 20787612. (англ.)
- Tzu-Hsi, Song; Sanchez, Victor; Hesham, EIDaly; Nasir M., Rajpoot (2017). Hybrid deep autoencoder with Curvature Gaussian for detection of various types of cells in bone marrow trephine biopsy images. 2017 IEEE 14th International Symposium on Biomedical Imaging (ISBI 2017): 1040—1043. doi:10.1109/ISBI.2017.7950694. ISBN . S2CID 7433130. (англ.)
- Xu, Jun; Xiang, Lei; Liu, Qingshan; Gilmore, Hannah; Wu, Jianzhong; Tang, Jinghai; Madabhushi, Anant (January 2016). Stacked Sparse Autoencoder (SSAE) for Nuclei Detection on Breast Cancer Histopathology Images. IEEE Transactions on Medical Imaging. 35 (1): 119—130. doi:10.1109/TMI.2015.2458702. PMC 4729702. PMID 26208307. (англ.)
- Martinez-Murcia, Francisco J.; Ortiz, Andres; Gorriz, Juan M.; Ramirez, Javier; Castillo-Barnes, Diego (2020). Studying the Manifold Structure of Alzheimer's Disease: A Deep Learning Approach Using Convolutional Autoencoders. IEEE Journal of Biomedical and Health Informatics. 24 (1): 17—26. doi:10.1109/JBHI.2019.2914970. PMID 31217131. S2CID 195187846. (англ.)
- Zhavoronkov, Alex (2019). Deep learning enables rapid identification of potent DDR1 kinase inhibitors. Nature Biotechnology. 37 (9): 1038—1040. doi:10.1038/s41587-019-0224-x. PMID 31477924. S2CID 201716327. (англ.)
- Gregory, Barber. . Wired. Архів оригіналу за 30 квітня 2020. Процитовано 20 червня 2021. (англ.)
- De, Shaunak; Maity, Abhishek; Goel, Vritti; Shitole, Sanjay; Bhattacharya, Avik (2017). Predicting the popularity of instagram posts for a lifestyle magazine using deep learning. 2017 2nd IEEE International Conference on Communication Systems, Computing and IT Applications (CSCITA). с. 174—177. doi:10.1109/CSCITA.2017.8066548. ISBN . S2CID 35350962. (англ.)
- Cho, Kyunghyun; Bart van Merrienboer; Bahdanau, Dzmitry; Bengio, Yoshua (2014). On the Properties of Neural Machine Translation: Encoder-Decoder Approaches. arXiv:1409.1259 [cs.CL]. (англ.)
- Sutskever, Ilya; Vinyals, Oriol; Le, Quoc V. (2014). Sequence to Sequence Learning with Neural Networks. arXiv:1409.3215 [cs.CL]. (англ.)
- Han, Lifeng; Kuang, Shaohui (2018). Incorporating Chinese Radicals into Neural Machine Translation: Deeper Than Character Level. arXiv:1805.01565 [cs.CL]. (англ.)
Посилання
- Типи автокодувальників [ 19 червня 2021 у Wayback Machine.] (англ.)
Вікіпедія, Українська, Україна, книга, книги, бібліотека, стаття, читати, завантажити, безкоштовно, безкоштовно завантажити, mp3, відео, mp4, 3gp, jpg, jpeg, gif, png, малюнок, музика, пісня, фільм, книга, гра, ігри, мобільний, телефон, android, ios, apple, мобільний телефон, samsung, iphone, xiomi, xiaomi, redmi, honor, oppo, nokia, sonya, mi, ПК, web, Інтернет
Avtokoduva lnik angl autoencoder ce odin iz tipiv shtuchnih nejronnih merezh yakij vikoristovuyut dlya navchannya efektivnih koduvan nemichenih danih nekerovanogo navchannya Ce koduvannya pereviryayetsya ta vdoskonalyuyetsya shlyahom namagannya vidtvoryuvati vhid iz cogo koduvannya Avtokoduvalnik navchayetsya podannya koduvannya dlya naboru danih zazvichaj dlya znizhennya rozmirnosti shlyahom trenuvannya ciyeyi merezhi ignoruvati neznachushi dani shum Isnuyut varianti spryamovani na zmushuvannya navchenih podan nabuvati korisnih vlastivostej Prikladami ye regulyarizovani avtokoduvalniki rozridzheni zneshumlyuvalni ta styaguvalni angl Sparse Denoising Contractive vidpovidno sho ye diyevimi v navchanni podan dlya piznishih zadach klasifikuvannya ta variacijni angl Variational avtokoduvalniki iz zastosuvannyam yak porodzhuvalnih modelej Avtokoduvalniki zastosovuyut u bagatoh zadachah vid rozpiznavannya oblich do ovolodivannya semantichnim znachennyam sliv Bazova arhitekturaAvtokoduvalnik maye dvi osnovni chastini koduvalnik angl encoder sho vidobrazhuye vhid do kodu ta dekoduvalnik angl decoder sho vidobrazhuye kod do vidbudovi vhodu Najprostishim sposobom vikonuvati zadachu kopiyuvannya idealnim chinom bulo bi prosto dublyuvati signal Natomist avtokoduvalniki zazvichaj zmusheno vidbudovuvati vhid priblizno zalishayuchi v kopiyi lishe najdorechnishi aspekti danih Ideya avtokoduvalnikiv bula populyarnoyu protyagom desyatirich Pershi zastosuvannya shodyat do 1980 h rokiv Yihnimi najtradicijnishimi zastosuvannyami buli znizhuvannya rozmirnosti ta navchannya oznak ale cyu koncepciyu stali zastosovuvati shirshe dlya navchannya porodzhuvalnih modelej danih Deyaki z najpotuzhnishih ShI u 2010 ti roki mistili avtokoduvalniki vkladeni vseredini glibokih nejronnih merezh Shema bazovogo avtokoduvalnika Najprostishoyu formoyu avtokoduvalnika ye nerekurentna nejronna merezha pryamogo poshirennya podibna do odnosharovih perceptroniv sho berut uchast u bagatosharovih perceptronah BShP z vikoristannyam sharu vhodu ta sharu vihodu z yednanih odnim abo dekilkoma prihovanimi sharami Shar vihodu maye take same chislo vuzliv nejroniv sho j shar vhodu Yiyi metoyu ye vidbudovuvati svoyi vhodi minimizuyuchi riznicyu mizh vhodom ta vihodom zamist peredbachuvati cilovu zminnu Y displaystyle Y za zadanih vhodiv X displaystyle X Takim chinom avtokoduvalniki navchayutsya nekerovano Avtokoduvalnik skladayetsya z dvoh chastin koduvalnika ta dekoduvalnika yaki mozhe buti viznacheno yak perehodi ϕ displaystyle phi ta ps displaystyle psi taki sho ϕ X F displaystyle phi mathcal X rightarrow mathcal F ps F X displaystyle psi mathcal F rightarrow mathcal X ϕ ps a r g m i n ϕ ps X ps ϕ X 2 displaystyle phi psi underset phi psi operatorname arg min X psi circ phi X 2 U najprostishomu vipadku yaksho vzyati odin prihovanij shar koduvalna stadiya avtokoduvalnika bere vhid x R d X displaystyle mathbf x in mathbb R d mathcal X ta vidobrazhuye jogo do h R p F displaystyle mathbf h in mathbb R p mathcal F h s W x b displaystyle mathbf h sigma mathbf Wx mathbf b Ce zobrazhennya h displaystyle mathbf h zazvichaj nazivayut kodom latentnimi zminnimi abo latentnim podannyam Tut s displaystyle sigma ye poelementnoyu peredavalnoyu funkciyeyu takoyu yak sigmoyida abo zrizanij linijnij vuzol W displaystyle mathbf W ye matriceyu vag a b displaystyle mathbf b ye vektorom zsuvu Vagi ta zsuvi zazvichaj inicializuyut vipadkovim chinom a potim iterativno utochnyuyut protyagom trenuvannya shlyahom zvorotnogo poshirennya Pislya cogo dekoduvalna stadiya avtokoduvalnika vidobrazhuye h displaystyle mathbf h u vidbudovu x displaystyle mathbf x takoyi zh formi sho j x displaystyle mathbf x x s W h b displaystyle mathbf x sigma mathbf W h mathbf b de s displaystyle mathbf sigma W displaystyle mathbf W ta b displaystyle mathbf b dlya dekoduvalnika mozhut buti nepov yazanimi z vidpovidnimi s displaystyle mathbf sigma W displaystyle mathbf W ta b displaystyle mathbf b dlya koduvalnika Avtokoduvalniki trenuyut minimizuvati pohibki vidbudovi taki yak serednokvadratichni pohibki sho chasto nazivayut vtratami angl loss L x x x x 2 x s W s W x b b 2 displaystyle mathcal L mathbf x mathbf x mathbf x mathbf x 2 mathbf x sigma mathbf W sigma mathbf Wx mathbf b mathbf b 2 de x displaystyle mathbf x zazvichaj userednyuyut nad trenuvalnim naborom danih Yak bulo zaznacheno vishe avtokoduvalne trenuvannya vikonuyetsya shlyahom zvorotnogo poshirennya ciyeyi pohibki yak i v inshih nejronnih merezhah pryamogo poshirennya Yaksho prostir oznak F displaystyle mathcal F maye menshu rozmirnist nizh prostir vhodiv X displaystyle mathcal X to vektor oznak ϕ x displaystyle phi x mozhlivo rozglyadati yak stisnene podannya vhodu x displaystyle x Ce u vipadku ponizhuvalnih angl undercomplete avtokoduvalnikiv Yaksho prihovani shari ye bilshimi pidvishuvalnimi angl overcomplete abo takimi zhe yak i shar vhodu abo yaksho prihovanim vuzlam nadano dostatnoyi yemnosti to avtokoduvalnik potencijno mozhe navchitisya totozhnoyi funkciyi j stati marnim Prote eksperimentalni rezultati viyavili sho pidvishuvalni avtokoduvalniki vse zh mozhut navchatisya korisnih podan V idealnij postanovci rozmirnist kodu ta yemnist modeli mozhlivo vstanovlyuvati na osnovi skladnosti modelovanogo rozpodilu danih Odnim zi sposobiv robiti ce ye vikoristannya riznovidiv ciyeyi modeli vidomih yak regulyarizovani avtokoduvalniki angl Regularized Autoencoders RiznovidiRegulyarizovani avtokoduvalniki Isnuyut rizni metodiki zapobigannya navchannyu avtokoduvalnikami totozhnoyi funkciyi ta pokrashennya yihnoyi zdatnosti vlovlyuvati vazhlivu informaciyu ta navchatisya cinnishih podan Rozridzhenij avtokoduvalnik RAK Prosta shema odnosharovogo rozridzhenogo avtokoduvalnika Zhovtogaryachi prihovani vuzli ye zbudzhenimi todi yak blido zhovti ye ne zbudzhenimi Zbudzhenist zalezhit vid vhodu Navchannya podan u sposib yakij zaohochuye rozridzhenist pokrashuye produktivnist na zadachah klasifikuvannya Rozridzheni avtokoduvalniki angl Sparse autoencoders SAE mozhut mistiti bilshe a ne menshe prihovanih vuzliv anizh vhodiv ale lishe nevelikomu chislu cih prihovanih vuzliv dozvoleno buti zbudzhenimi odnochasno vlasne rozridzhenist Ce obmezhennya zmushuye model reaguvati na unikalni statistichni oznaki trenuvalnih danih Zokrema rozridzhenij avtokoduvalnik ye avtokoduvalnikom chij trenuvalnij kriterij mistit rozridzhuvalnij shtraf W h displaystyle Omega boldsymbol h sharu kodu h displaystyle boldsymbol h L x x W h displaystyle mathcal L mathbf x mathbf x Omega boldsymbol h Yaksho prigadati sho h f W x b displaystyle boldsymbol h f boldsymbol W boldsymbol x boldsymbol b to cej shtraf zaohochuye model zbudzhuvati tobto znachennya vihodu blizko 1 na osnovi danih vhodu osoblivi oblasti merezhi odnochasno galmuyuchi vsi inshi nejroni tobto shobi voni mali znachennya vihodu blizko 0 Ciyeyi rozridzhenosti mozhlivo dosyagati shlyahom formulyuvannya chleniv shtrafu riznimi sposobami Odnim zi sposobiv ye vikoristovuvati rozhodzhennya Kulbaka Lejblera KL KL Nehaj r j 1 m i 1 m h j x i displaystyle hat rho j frac 1 m sum i 1 m h j x i dd bude userednenim zbudzhennyam prihovanogo vuzla j displaystyle j userednenim nad m displaystyle m trenuvalnih zrazkiv Zapis h j x i displaystyle h j x i vkazuye na znachennya vhodu sho vi klikalo ce zbudzhennya Shobi zaohotiti bilshist nejroniv buti ne zbudzhenimi r j displaystyle hat rho j potribno buti blizkim do 0 Tomu cej metod nakladaye obmezhennya r j r displaystyle hat rho j rho de r displaystyle rho ye parametrom rozridzhenosti znachennyam blizkim do 0 Chlen shtrafu W h displaystyle Omega boldsymbol h nabuvaye viglyadu yakij shtrafuye r j displaystyle hat rho j za znachne vidhilyannya vid r displaystyle rho vikoristovuyuchi rozhodzhennya KL j 1 s K L r r j j 1 s r log r r j 1 r log 1 r 1 r j displaystyle sum j 1 s KL rho hat rho j sum j 1 s left rho log frac rho hat rho j 1 rho log frac 1 rho 1 hat rho j right dd de j displaystyle j ye pidsumovuvannyam nad s displaystyle s prihovanih vuzliv u prihovanim shari a K L r r j displaystyle KL rho hat rho j ye KL rozhodzhennyam mizh vipadkovoyu zminnoyu Bernulli z serednim r displaystyle rho ta vipadkovoyu zminnoyu Bernulli z serednim r j displaystyle hat rho j Inshim sposobom dosyagannya rozridzhenosti ye zastosuvannya do zbudzhennya chleniv regulyarizaciyi L1 abo L2 masshtabovanih pevnim parametrom l displaystyle lambda Napriklad u vipadku L1 funkciya vtrat nabuvaye viglyadu L x x l i h i displaystyle mathcal L mathbf x mathbf x lambda sum i h i dd Nastupnoyu proponovanoyu strategiyeyu primushuvannya do rozridzhenosti ye zanulyuvati vruchnu vsi krim najsilnishih zbudzhen prihovanih vuzliv k rozridzhenij avtokoduvalnik angl k sparse autoencoder k rozridzhenij avtokoduvalnik gruntuyetsya na linijnomu avtokoduvalniku tobto z linijnoyu peredavalnoyu funkciyeyu ta uv yazanih vagah angl tied weights Viznachennya najsilnishih zbudzhen mozhlivo dosyagati vporyadkovuvannyam cih zbudzhen ta zalishannyam lishe pershih k znachen abo zastosovuvannyam vipryamlyalnih prihovanih vuzliv z porogami yaki adaptivno pidlashtovuyutsya doti poki ne bude viyavleno k najbilshih zbudzhen Ce obirannya diye yak zgadani ranishe chleni regulyarizaciyi oskilki zapobigaye vidbudovuvannyu modellyu vhodu iz zastosuvannyam zanadto velikogo chisla nejroniv Zneshumlyuvalnij avtokoduvalnik ZAK Zneshumlyuvalni avtokoduvalniki ZAK angl denoising autoencoders DAE namagayutsya dosyagati dobrogo podannya shlyahom zmini kriteriyu vidbudovi Dijsno ZAKi berut chastkovo zipsovanij vhid i trenuyutsya vidnovlyuvati pervinnij nespotvorenij vhid Na praktici metoyu zneshumlyuvalnih koduvalnikiv ye ochishuvannya zipsovanogo vhodu abo zneshumlyuvannya Comu pidhodovi pritamanni dva pripushennya Podannya vishogo rivnya ye vidnosno stabilnimi j stijkimi do psuvannya vhodu Shobi vikonuvati zneshumlyuvannya dobre modeli potribno vidilyati oznaki yaki vlovlyuyut korisnu strukturu v rozpodili vhodu Inshimi slovami zneshumlyuvannya propaguyetsya yak trenuvalnij kriterij dlya navchannya vidilyannya korisnih oznak sho utvoryuvatimut krashi podannya vhodu vishogo rivnya Proces trenuvannya ZAK pracyuye nastupnim chinom Pochatkovij vhid x displaystyle x spotvoryuyetsya v x displaystyle boldsymbol tilde x shlyahom stohastichnogo vidobrazhennya x q D x x displaystyle boldsymbol tilde x thicksim q D boldsymbol tilde x boldsymbol x Cej poshkodzhenij vhid x displaystyle boldsymbol tilde x vidtak vidobrazhuyetsya do prihovanogo podannya takim zhe procesom yak i v standartnogo avtokoduvalnika h f 8 x s W x b displaystyle boldsymbol h f theta boldsymbol tilde x s boldsymbol W boldsymbol tilde x boldsymbol b Iz cogo prihovanogo podannya model vidbudovuye z g 8 h displaystyle boldsymbol z g theta boldsymbol h Parametri modeli 8 displaystyle theta ta 8 displaystyle theta trenuyutsya minimizuvati userednenu nad usima trenuvalnimi danimi pohibku vidbudovuvannya zokrema minimizuyuchi riznicyu mizh z displaystyle boldsymbol z ta pervinnim neposhkodzhenim vhodom x displaystyle boldsymbol x Zauvazhte sho kozhnogo razu yak modeli podayetsya vipadkovij zrazok x displaystyle boldsymbol x na osnovi q D x x displaystyle q D boldsymbol tilde x boldsymbol x stohastichno porodzhuyetsya nova poshkodzhena versiya Vishezgadanij trenuvalnij proces mozhlivo zastosovuvati iz bud yakim vidom procesu poshkodzhuvannya Deyakimi prikladami mozhut buti aditivnij izotropnij gaussiv shum maskuvalnij shum vipadkovo obrana chastka vhodu kozhnogo zrazka primusovo vstanovlyuyetsya v 0 abo solovij ta percevij shum vipadkovo obrana chastka vhodu kozhnogo zrazka primusovo vstanovlyuyetsya u svoye minimalne abo maksimalne znachennya z rivnomirnoyu jmovirnistyu Poshkodzhuvannya vhodu vikonuyetsya lishe pid chas trenuvannya Pislya trenuvannya poshkodzhuvannya ne dodayetsya Styaguvalnij avtokoduvalnik SAK Styaguvalnij avtokoduvalnik angl contractive autoencoder CAE dodaye do svoyeyi cilovoyi funkciyi yavnij regulyarizator sho zmushuye model navchatisya koduvannya stijko do neznachnih variacij znachen vhodu Cej regulyarizator vidpovidaye normi Frobeniusa matrici Yakobi zbudzhen koduvalnika vidnosno vhodu Oskilki cej shtraf zastosovuyetsya lishe do trenuvalnih zrazkiv cej chlen zmushuye model navchatisya korisnoyi informaciyi pro trenuvalnij rozpodil Ostatochna cilova funkciya maye nastupnij viglyad L x x l i x h i 2 displaystyle mathcal L mathbf x mathbf x lambda sum i nabla x h i 2 Cej avtokoduvalnik nazvano styaguvalnim oskilki vin zaohochuyetsya vidobrazhuvati okil tochok vhodu do menshogo okolu tochok vihodu ZAK ye pov yazanim iz SAK na granici malogo gaussovogo shumu vhodu ZAKi roblyat funkciyu vidbudovi stijkoyu do malih ale skinchennogo rozmiru zburen vhodu todi yak SAKi roblyat vityagnuti oznaki stijkimi do neskinchenno malih zburen vhodu Konkretnij avtokoduvalnik Konkretnij avtokoduvalnik angl concrete autoencoder rozrobleno dlya obirannya diskretnih oznak Konkretnij avtokoduvalnik primushuye latentnij prostir skladatisya lishe iz vkazanogo koristuvachem chisla oznak Konkretnij avtokoduvalnik vikoristovuye neperervne en kategorijnogo rozpodilu shobi dozvoliti gradiyentam prohoditi kriz shar obirannya oznak sho umozhlivlyuye zastosuvannya standartnogo zvorotnogo poshirennya dlya navchannya optimalnoyi pidmnozhini oznak vhodu yaka minimizuye vtrati vidbudovi Variacijnij avtokoduvalnik VAK Dokladnishe Variacijnij avtokoduvalnik Variacijni avtokoduvalniki VAKi angl variational autoencoders VAEs nalezhat do simejstv en Nezvazhayuchi na arhitekturni podibnosti z bazovimi avtokoduvalnikami VAKi ye arhitekturoyu z vidminnimi cilyami ta z absolyutno inshim matematichnim formulyuvannyam Latentnij prostir u comu vipadku skladayetsya z sumishi rozpodiliv zamist fiksovanogo vektoru Za zadanogo naboru danih vhodu x displaystyle mathbf x opisuvanogo nevidomoyu funkciyeyu jmovirnosti P x displaystyle P mathbf x ta bagatovimirnogo vektoru latentnogo koduvannya z displaystyle mathbf z metoyu ye zmodelyuvati ci dani yak rozpodil p 8 x displaystyle p theta mathbf x de 8 displaystyle theta viznacheno yak nabir takih parametriv ciyeyi merezhi sho p 8 x z p 8 x z d z displaystyle p theta mathbf x int mathbf z p theta mathbf x z d mathbf z Perevagi glibiniShematichna struktura avtokoduvalnika z troma povnoz yednanimi prihovanimi sharami Kod z abo h dlya posilan u teksti ye najvnutrishnishim sharom Avtokoduvalniki chasto trenuyut iz odnosharovim koduvalnikom ta odnosharovim dekoduvalnikom ale vikoristannya bagatosharovih glibokih koduvalnikiv ta dekoduvalnikiv proponuye bagato perevag Glibina mozhe eksponencijno skorochuvati obchislyuvalnu vitratnist podannya deyakih funkcij Glibina mozhe eksponencijno zmenshuvati kilkist trenuvalnih danih potribnih dlya navchannya deyakih funkcij Eksperimentalno vstanovleno sho gliboki avtokoduvalniki dayut krashe stisnennya u porivnyanni z poverhnevimi abo linijnimi avtokoduvalnikami Trenuvannya Dlya trenuvannya bagatosharovih glibokih avtokoduvalnikiv Dzhefri Ginton rozrobiv metodiku glibokoyi merezhi perekonan Jogo metod polyagaye v opracyuvanni kozhnoyi susidnoyi pari z dvoh shariv yak obmezhenoyi mashini Bolcmana shobi poperednye trenuvannya nablizhuvalo dobrij rozv yazok i v nastupnim zastosuvanni zvorotnogo poshirennya dlya tonkogo nalashtuvannya rezultativ Doslidniki diskutuvali chi bude spilne trenuvannya tobto trenuvannya vsiyeyi arhitekturi razom iz yedinoyu globalnoyu metoyu vidbudovuvannya dlya optimizuvannya dlya glibokih avtokoduvalnikiv krashim Doslidzhennya 2015 roku pokazalo sho spilne trenuvannya navchayetsya krashih modelej razom z pokazovishimi oznakami dlya klasifikuvannya u porivnyanni z posharovim metodom Prote yihni eksperimenti pokazali sho uspih spilnogo trenuvannya silno zalezhit vid prijnyatih strategij regulyarizaciyi ZastosuvannyaDvoma osnovnimi zastosuvannyami avtokoduvalnikiv ye znizhuvannya rozmirnosti ta informacijnij poshuk ale suchasni riznovidi zastosovuvali j do inshih zadach Znizhuvannya rozmirnosti Grafik pershih dvoh golovnih komponent livoruch ta dvovimirnogo prihovanogo sharu linijnogo avtokoduvalnika pravoruch zastosovanih do Ci dvi modeli buduchi obidvi linijnimi vchatsya ohoplyuvati odin i toj zhe pidprostir Proyekciyi tochok danih ye j spravdi identichnimi krim povorotu pidprostoru do yakogo MGK ye invariantnim Znizhuvannya rozmirnosti bulo odnim iz pershih zastosuvan glibokogo navchannya Ginton dlya svogo doslidzhennya 2006 roku poperedno trenuvav bagatosharovij avtokoduvalnik stosom OMB a potim vikoristovuvav yihni vagi shobi inicializuvati avtokoduvalnik iz postupovo menshimi prihovanimi sharami poki ne vpersya u vuzke misce z 30 nejroniv Otrimani v rezultati 30 vimiriv kodu davali menshu pohibku vidbudovi v porivnyanni z pershimi 30 komponentami metodu golovnih komponent MGK i navchalisya podannya sho bulo yakisno legshim dlya interpretuvannya chitko vidokremlyuyuchi klasteri danih Podavannya vimiriv mozhe pokrashuvati produktivnist u takih zadachah yak klasifikuvannya Dijsno oznakoyu yakosti znizhuvannya rozmirnosti ye rozmishuvannya semantichno pov yazanih zrazkiv odin bilya odnogo Metod golovnih komponent Vidbudova zobrazhen 28 28 pikseliv avtokoduvalnikom z rozmirom kodu v dva dvovuzlovij prihovanij shar ta vidbudova z pershih dvoh golovnih komponent MGK Zobrazhennya pohodyat z Yaksho zastosovuyutsya linijni peredavalni funkciyi abo lishe yedinij sigmoyidnij prihovanij shar to optimalnij rozv yazok dlya avtokoduvalnika ye tisno pov yazanim iz metodom golovnih komponent MGK Vagi avtokoduvalnika z yedinim prihovanim sharom rozmiru p displaystyle p de p displaystyle p ye menshim za rozmir vhodu ohoplyuyut toj samij vektornij pidprostir sho ohoplyuyetsya j pershimi p displaystyle p golovnimi komponentami a vihid avtokoduvalnika ye ortogonalnoyu proyekciyeyu na cej pidprostir Vagi avtokoduvalnika ne dorivnyuyut golovnim komponentam i zagalom ne ye ortogonalnimi prote golovni komponenti mozhe buti vidnovleno z nih shlyahom zastosuvannya singulyarnogo rozkladu matrici Prote potencial avtokoduvalnikiv polyagaye u yihnij nelinijnosti sho dozvolyaye cij modeli navchatisya potuzhnishih uzagalnen porivnyano z MGK ta vidbudovuvati vhid iz znachno nizhchimi vtratami informaciyi Informacijnij poshuk Informacijnij poshuk vigraye zokrema zavdyaki znizhennyu rozmirnosti bo poshuk v pevnih tipah prostoriv nizkoyi vimirnosti mozhete stavati diyevishim Avtokoduvalniki dijsno zastosovuvali do semantichnogo geshuvannya zaproponovanogo en ta Gintonom 2007 roku Shlyahom trenuvannya cogo algoritmu viroblyati dvijkovij kod nizkoyi vimirnosti vsi zapisi bazi danih mozhe buti zberezheno v gesh tablici sho vidobrazhuye vektori dvijkovogo kodu na zapisi Cya tablicya vidtak pidtrimuvatime informacijnij poshuk povertayuchi vsi zapisi z takim zhe dvijkovim kodom yak i v zapitu abo desho mensh podibni zapisi shlyahom perekidannya deyakih bitiv iz koduvannya zapitu Viyavlyannya anomalij Inshim zastosuvannyam dlya avtokoduvalnikiv ye viyavlyannya anomalij Shlyahom navchannya vidtvoryuvati najpomitnishi oznaki v trenuvalnih danih za deyakogo z opisanih vishe obmezhen cyu model zaohochuyut navchatisya tochno vidtvoryuvati najchastishe sposterezhuvani harakteristiki Stikayuchis iz anomaliyami model povinna pogirshuvati svoyu vidtvoryuvalnu produktivnist V bilshosti vipadkiv dlya trenuvannya avtokoduvalnika vikoristovuyut lishe dani z normalnimi zrazkami v inshih chastota anomalij ye nevelikoyu v porivnyanni z naborom sposterezhen tozh yihnim vneskom do navchenogo podannya mozhlivo nehtuvati Pislya trenuvannya avtokoduvalnik tochno vidbudovuvatime normalni dani v toj zhe chas zaznayuchi nevdach u comu z neznajomimi anomalnimi danimi Pohibku vidbudovi pohibku mizh pervinnimi danimi ta yihnoyu nizkovimirnoyu vidbudovoyu vikoristovuyut yak pokaznik anomalnosti dlya viyavlyannya anomalij Prote neshodavni publikaciyi pokazali sho pevni avtokoduvalni modeli mozhut yak ne divno buti duzhe vpravnimi u vidbudovuvanni anomalnih zrazkiv i vidtak buti nezdatnimi nadijno vikonuvati viyavlyannya anomalij Obrobka zobrazhen Harakteristiki avtokoduvalnikiv ye korisnimi v obrobci zobrazhen Odin iz prikladiv mozhlivo znajti u stiskanni zobrazhen iz vtratami de avtokoduvalniki perevershuvali inshi pidhodi j doveli konkurentnospromozhnist u porivnyanni z JPEG 2000 Inshim korisnim zastosuvannyam avtokoduvalnikiv u poperednij obrobci zobrazhen ye zneshumlyuvannya zobrazhen Avtokoduvalniki znajshli zastosuvannya u vimoglivishih kontekstah takih yak medichna vizualizaciya de yih vikoristovuvali yak dlya zneshumlyuvannya zobrazhen tak i dlya en U diagnostici za dopomogoyu zobrazhen v eksperimentah zastosovuvali avtokoduvalniki dlya viyavlyannya raku molochnoyi zalozi ta dlya modelyuvannya zv yazku mizh kognitivnim spadom hvorobi Alcgejmera ta latentnimi oznakami avtokoduvalnika natrenovanogo za dopomogoyu MRT Poshuk likiv 2019 roku molekuli porodzheni variacijnimi avtokoduvalnikami bulo perevireno eksperimentalno na mishah Peredbachuvannya populyarnosti Neshodavno sistema skladenih avtokoduvalnikiv angl stacked autoencoder prodemonstruvala obnadijlivi rezultati v peredbachuvanni populyarnosti publikacij u socialnih merezhah sho ye korisnim dlya strategij reklami cherez Internet Mashinnij pereklad Avtokoduvalnik zastosovuyut dlya mashinnogo perekladu sho zazvichaj nazivayut nejronnim mashinnim perekladom NMP Na vidminu vid standartnih avtokoduvalnikiv vihid ne zbigayetsya iz vhodom jogo mova ye inshoyu V NMP teksti rozglyadayut yak poslidovnosti dlya koduvannya v proceduri navchannya todi yak na dekoduvalomu boci porodzhuyutsya poslidovnosti cilovoyu movoyu Movno specifichni avtokoduvalniki vklyuchayut do navchalnoyi proceduri dodatkovi movoznavchi oznaki taki yak oznaki rozkladu kitajskoyi movi Div takozhNavchannya podan en Gliboke navchannyaPrimitkiKramer Mark A 1991 Nonlinear principal component analysis using autoassociative neural networks PDF AIChE Journal 37 2 233 243 doi 10 1002 aic 690370209 angl Goodfellow Ian Bengio Yoshua Courville Aaron 2016 MIT Press ISBN 978 0262035613 Arhiv originalu za 17 bereznya 2021 Procitovano 20 travnya 2022 angl Vincent Pascal Larochelle Hugo 2010 Stacked Denoising Autoencoders Learning Useful Representations in a Deep Network with a Local Denoising Criterion Journal of Machine Learning Research 11 3371 3408 angl Welling Max Kingma Diederik P 2019 An Introduction to Variational Autoencoders Foundations and Trends in Machine Learning 12 4 307 392 arXiv 1906 02691 Bibcode 2019arXiv190602691K doi 10 1561 2200000056 S2CID 174802445 angl Hinton GE Krizhevsky A Wang SD Transforming auto encoders 12 listopada 2020 u Wayback Machine In International Conference on Artificial Neural Networks 2011 Jun 14 pp 44 51 Springer Berlin Heidelberg angl Liou Cheng Yuan Huang Jau Chi Yang Wen Chie 2008 Modeling word perception using the Elman network Neurocomputing 71 16 18 3150 doi 10 1016 j neucom 2008 04 030 angl Liou Cheng Yuan Cheng Wei Chen Liou Jiun Wei Liou Daw Ran 2014 Autoencoder for words Neurocomputing 139 84 96 doi 10 1016 j neucom 2013 09 055 angl Schmidhuber Jurgen January 2015 Deep learning in neural networks An overview Neural Networks 61 85 117 arXiv 1404 7828 doi 10 1016 j neunet 2014 09 003 PMID 25462637 S2CID 11715509 angl Hinton G E amp Zemel R S 1994 Autoencoders minimum description length and Helmholtz free energy In Advances in neural information processing systems 6 pp 3 10 angl Diederik P Kingma Welling Max 2013 Auto Encoding Variational Bayes arXiv 1312 6114 stat ML angl Generating Faces with Torch Boesen A Larsen L and Sonderby S K 2015 torch ch blog 2015 11 13 gan html angl 2015 4 Basic Books Deeper into the Brain subsection ISBN 978 046506192 1 angl Krivohata A G 2020 PDF kandidatska disertaciya Zaporizhzhya ZNU s 64 Arhiv originalu PDF za 18 chervnya 2021 Procitovano 18 chervnya 2021 Androsov D V 2020 PDF bakalavrska diplomna robota Kiyiv NTUU KPI s 24 Arhiv originalu PDF za 18 chervnya 2021 Procitovano 18 chervnya 2021 Bengio Y 2009 PDF Foundations and Trends in Machine Learning 2 8 1795 7 CiteSeerX 10 1 1 701 9550 doi 10 1561 2200000006 PMID 23946944 Arhiv originalu PDF za 23 grudnya 2015 Procitovano 20 sichnya 2016 angl Frey Brendan Makhzani Alireza 19 grudnya 2013 k Sparse Autoencoders arXiv 1312 5663 Bibcode 2013arXiv1312 5663M angl Ng A 2011 Sparse autoencoder 7 travnya 2021 u Wayback Machine CS294A Lecture notes 72 2011 1 19 angl Nair Vinod Hinton Geoffrey E 2009 3D Object Recognition with Deep Belief Nets Proceedings of the 22Nd International Conference on Neural Information Processing Systems NIPS 09 USA Curran Associates Inc 1339 1347 ISBN 9781615679119 angl Zeng Nianyin Zhang Hong Song Baoye Liu Weibo Li Yurong Dobaie Abdullah M 17 sichnya 2018 Facial expression recognition via learning deep sparse autoencoders Neurocomputing 273 643 649 doi 10 1016 j neucom 2017 08 043 ISSN 0925 2312 angl Arpit Devansh Zhou Yingbo Ngo Hung Govindaraju Venu 2015 Why Regularized Auto Encoders learn Sparse Representation arXiv 1505 05561 stat ML angl Makhzani Alireza Frey Brendan 2013 K Sparse Autoencoders arXiv 1312 5663 cs LG angl Abid Abubakar Balin Muhammad Fatih Zou James 27 sichnya 2019 Concrete Autoencoders for Differentiable Feature Selection and Reconstruction arXiv 1901 09346 cs LG angl Hinton G E Salakhutdinov R R 28 lipnya 2006 Reducing the Dimensionality of Data with Neural Networks Science 313 5786 504 507 Bibcode 2006Sci 313 504H doi 10 1126 science 1127647 PMID 16873662 S2CID 1658773 angl Zhou Yingbo Arpit Devansh Nwogu Ifeoma Govindaraju Venu 2014 Is Joint Training Better for Deep Auto Encoders arXiv 1405 1380 stat ML angl R Salakhutdinov and G E Hinton Deep boltzmann machines in AISTATS 2009 pp 448 455 angl 12 lipnya 2019 Arhiv originalu za 20 lipnya 2019 Procitovano 20 chervnya 2021 Salakhutdinov Ruslan Hinton Geoffrey 1 lipnya 2009 Semantic hashing International Journal of Approximate Reasoning Special Section on Graphical Models and Information Retrieval 50 7 969 978 doi 10 1016 j ijar 2008 11 006 ISSN 0888 613X angl Bourlard H Kamp Y 1988 Biological Cybernetics 59 4 5 291 294 doi 10 1007 BF00332918 PMID 3196773 S2CID 206775335 Arhiv originalu za 27 chervnya 2021 Procitovano 20 chervnya 2021 angl Chicco Davide Sadowski Peter Baldi Pierre 2014 Deep autoencoder neural networks for gene ontology annotation predictions s 533 doi 10 1145 2649387 2649442 hdl 11311 964622 ISBN 9781450328944 S2CID 207217210 Arhiv originalu za 9 travnya 2021 Procitovano 20 chervnya 2021 angl Plaut E 2018 From Principal Subspaces to Principal Components with Linear Autoencoders arXiv 1804 10253 stat ML angl Sakurada M amp Yairi T 2014 December Anomaly detection using autoencoders with nonlinear dimensionality reduction In Proceedings of the MLSDA 2014 2nd Workshop on Machine Learning for Sensory Data Analysis p 4 ACM angl An J amp Cho S 2015 Variational autoencoder based anomaly detection using reconstruction probability Special Lecture on IE 2 1 18 angl Zhou C amp Paffenroth R C 2017 August Anomaly detection with robust deep autoencoders In Proceedings of the 23rd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining pp 665 674 ACM angl Ribeiro Manasses Lazzaretti Andre Eugenio Lopes Heitor Silverio 2018 A study of deep convolutional auto encoders for anomaly detection in videos Pattern Recognition Letters 105 13 22 doi 10 1016 j patrec 2017 07 016 angl Nalisnick Eric Matsukawa Akihiro Teh Yee Whye Gorur Dilan Lakshminarayanan Balaji 24 lyutogo 2019 Do Deep Generative Models Know What They Don t Know arXiv 1810 09136 stat ML angl Xiao Zhisheng Yan Qing Amit Yali 2020 Advances in Neural Information Processing Systems angl 33 arXiv 2003 02977 Arhiv originalu za 24 chervnya 2021 Procitovano 20 chervnya 2021 angl Theis Lucas Shi Wenzhe Cunningham Andrew Huszar Ferenc 2017 Lossy Image Compression with Compressive Autoencoders arXiv 1703 00395 stat ML angl Balle J Laparra V Simoncelli EP April 2017 End to end optimized image compression International Conference on Learning Representations arXiv 1611 01704 angl Cho K 2013 February Simple sparsification improves sparse denoising autoencoders in denoising highly corrupted images In International Conference on Machine Learning pp 432 440 angl Cho Kyunghyun 2013 Boltzmann Machines and Denoising Autoencoders for Image Denoising arXiv 1301 3468 stat ML angl Buades A Coll B Morel J M 2005 Multiscale Modeling amp Simulation 4 2 490 530 doi 10 1137 040616024 Arhiv originalu za 24 chervnya 2021 Procitovano 20 chervnya 2021 angl Gondara Lovedeep December 2016 Medical Image Denoising Using Convolutional Denoising Autoencoders 2016 IEEE 16th International Conference on Data Mining Workshops ICDMW Barcelona Spain IEEE 241 246 arXiv 1608 04667 Bibcode 2016arXiv160804667G doi 10 1109 ICDMW 2016 0041 ISBN 9781509059102 S2CID 14354973 angl Zeng Kun Yu Jun Wang Ruxin Li Cuihua Tao Dacheng January 2017 Coupled Deep Autoencoder for Single Image Super Resolution IEEE Transactions on Cybernetics 47 1 27 37 doi 10 1109 TCYB 2015 2501373 ISSN 2168 2267 PMID 26625442 S2CID 20787612 angl Tzu Hsi Song Sanchez Victor Hesham EIDaly Nasir M Rajpoot 2017 Hybrid deep autoencoder with Curvature Gaussian for detection of various types of cells in bone marrow trephine biopsy images 2017 IEEE 14th International Symposium on Biomedical Imaging ISBI 2017 1040 1043 doi 10 1109 ISBI 2017 7950694 ISBN 978 1 5090 1172 8 S2CID 7433130 angl Xu Jun Xiang Lei Liu Qingshan Gilmore Hannah Wu Jianzhong Tang Jinghai Madabhushi Anant January 2016 Stacked Sparse Autoencoder SSAE for Nuclei Detection on Breast Cancer Histopathology Images IEEE Transactions on Medical Imaging 35 1 119 130 doi 10 1109 TMI 2015 2458702 PMC 4729702 PMID 26208307 angl Martinez Murcia Francisco J Ortiz Andres Gorriz Juan M Ramirez Javier Castillo Barnes Diego 2020 Studying the Manifold Structure of Alzheimer s Disease A Deep Learning Approach Using Convolutional Autoencoders IEEE Journal of Biomedical and Health Informatics 24 1 17 26 doi 10 1109 JBHI 2019 2914970 PMID 31217131 S2CID 195187846 angl Zhavoronkov Alex 2019 Deep learning enables rapid identification of potent DDR1 kinase inhibitors Nature Biotechnology 37 9 1038 1040 doi 10 1038 s41587 019 0224 x PMID 31477924 S2CID 201716327 angl Gregory Barber Wired Arhiv originalu za 30 kvitnya 2020 Procitovano 20 chervnya 2021 angl De Shaunak Maity Abhishek Goel Vritti Shitole Sanjay Bhattacharya Avik 2017 Predicting the popularity of instagram posts for a lifestyle magazine using deep learning 2017 2nd IEEE International Conference on Communication Systems Computing and IT Applications CSCITA s 174 177 doi 10 1109 CSCITA 2017 8066548 ISBN 978 1 5090 4381 1 S2CID 35350962 angl Cho Kyunghyun Bart van Merrienboer Bahdanau Dzmitry Bengio Yoshua 2014 On the Properties of Neural Machine Translation Encoder Decoder Approaches arXiv 1409 1259 cs CL angl Sutskever Ilya Vinyals Oriol Le Quoc V 2014 Sequence to Sequence Learning with Neural Networks arXiv 1409 3215 cs CL angl Han Lifeng Kuang Shaohui 2018 Incorporating Chinese Radicals into Neural Machine Translation Deeper Than Character Level arXiv 1805 01565 cs CL angl PosilannyaTipi avtokoduvalnikiv 19 chervnya 2021 u Wayback Machine angl