Зго́рткові нейро́нні мере́жі (ЗНМ, англ. convolutional neural network, CNN, ConvNet) в машинному навчанні — це клас глибоких штучних нейронних мереж прямого поширення, який успішно застосовувався до аналізу візуальних зображень.
ЗНМ використовують різновид багатошарових перцептронів, розроблений так, щоби вимагати використання мінімального обсягу попередньої обробки. Вони відомі також як інваріа́нтні відно́сно зсу́ву (англ. shift invariant) або просторо́во інваріа́нтні шту́чні нейро́нні мере́жі (англ. space invariant artificial neural networks, SIANN), виходячи з їхньої архітектури спільних ваг та характеристик інваріантності відносно паралельного перенесення.
Згорткові мережі взяли за основу біологічний процес, а саме схему з'єднання нейронів зорової кори тварин. Окремі нейрони кори реагують на [en] лише в обмеженій області зорового поля, відомій як рецептивне поле. Рецептивні поля різних нейронів частково перекриваються таким чином, що вони покривають усе зорове поле.
ЗНМ використовують порівняно мало попередньої обробки, в порівнянні з іншими (алгоритмами класифікування зображень). Це означає, що мережа навчається [en], що в традиційних алгоритмах конструювали вручну. Ця незалежність у конструюванні ознак від апріорних знань та людських зусиль є великою перевагою.
Вони мають застосування в розпізнаванні зображень та відео, рекомендаційних системах та обробці природної мови.
Конструкція
ЗНМ складається з шарів входу та виходу, а також із декількох . Приховані шари ЗНМ зазвичай складаються зі згорткових шарів, агрегувальних шарів, повноз'єднаних шарів та шарів нормалізації.
Цей процес описують в нейронних мережах як згортку за домовленістю. З математичної точки зору він є радше взаємною кореляцією, ніж згорткою. Це має значення лише для індексів у матриці, й відтак які ваги на якому індексі розташовуються.
Згорткові шари
Згорткові шари застосовують до входу операцію згортки, передаючи результат до наступного шару. Згортка імітує реакцію окремого нейрону на зоровий [en].
Кожен згортковий нейрон обробляє дані лише для свого рецептивного поля.
Хоч повноз'єднані нейронні мережі прямого поширення й можливо застосовувати як для навчання ознак, так і для класифікування даних, застосування цієї архітектури до зображень є непрактичним. Було би необхідним дуже велике число нейронів, навіть у неглибокій (протилежній до глибокої) архітектурі, через дуже великі розміри входу, пов'язані з зображеннями, де кожен піксель є відповідною змінною. Наприклад, повноз'єднаний шар для (маленького) зображення розміром 100 × 100 має 10 000 ваг. Операція згортки дає змогу розв'язати цю проблему, оскільки вона зменшує кількість вільних параметрів, дозволяючи мережі бути глибшою за меншої кількості параметрів. Наприклад, незалежно від розміру зображення, області замощування розміру 5 × 5, кожна з одними й тими ж спільними вагами, вимагають лише 25 вільних параметрів. Таким чином, це розв'язує проблему зникання або вибуху градієнтів у тренуванні традиційних багатошарових нейронних мереж з багатьма шарами за допомогою зворотного поширення.[]
Агрегувальні шари
Згорткові мережі можуть включати шари локального або глобального агрегування,[] які об'єднують виходи кластерів нейронів одного шару до одного нейрону наступного шару. Наприклад, максимізаційне агрегування (англ. max pooling) використовує максимальне значення з кожного з кластерів нейронів попереднього шару. Іншим прикладом є усереднювальне агрегування (англ. average pooling), що використовує усереднене значення з кожного з кластерів нейронів попереднього шару.[]
Повноз'єднані шари
Повноз'єднані шари з'єднують кожен нейрон одного шару з кожним нейроном наступного шару. Це, в принципі, є тим же, що й традиційна нейронна мережа багатошарового перцептрону (БШП).
Ваги
ЗНМ використовують спільні ваги в згорткових шарах, що означає, що для кожного рецептивного поля[: ком.] шару використовується один і той же фільтр (банк ваг[: ком.]); це зменшує обсяг необхідної пам'яті та поліпшує продуктивність[].
Історія
Конструкція ЗНМ наслідує зорові механізми в живих організмах.[]
Рецептивні поля
Праця Г'юбела та Візела в 1950-ті та 1960-ті роки показала, що зорові [en] котів та мавп містять нейрони, які окремо реагують на маленькі ділянки зорового поля. За умови, що очі не рухаються, область зорового простору, в межах якої візуальний стимул впливає на збудження одного нейрону, відома як його рецептивне поле.[] Сусідні клітини мають подібні рецептивні поля, що перекриваються.[] Розмір та розташування рецептивних полів систематично змінюються по всій корі, формуючи повне відображення зорового простору.[] Кора кожної з півкуль представляє перехресне зорове поле.[]
Їхня праця 1968 року визначила два основні типи зорових клітин у мозку:
- [en], чий вихід максимізується прямими краями, що мають певне орієнтування, в межах їхніх рецептивних полів
- [en], що мають більші рецептивні поля, чий вихід є нечутливим до точного положення країв у полі.
Неокогнітрон
Неокогнітрон було представлено 1980 року. Неокогнітрон не вимагає від вузлів, розташованих в декількох місцях мережі, мати одні й ті ж треновані ваги. Ця ідея з'являється 1986 року в книжній версії первинної праці про зворотне поширення. Неокогнітрони було розроблено 1988 року для сигналів, що поширюються в часі.[] Їхню конструкцію було вдосконалено 1998 року, узагальнено 2003 року і того ж року спрощено.
LeNet-5
LeNet-5 - 7-рівнева згорткова мережа від ЛеКуна та ін., запропонована у 1998 р.,, яка класифікує рукописні цифри. Була застосовано кількома банками для розпізнавання рукописних цифр на чеках, оцифровуваних у зображення 32×32 пікселів. Здатність оброблювати зображення вищої роздільності вимагає більшої кількості згорткових шарів, тож цю методику обмежено наявністю обчислювальних ресурсів.
Інваріантна відносно зсуву нейронна мережа
Аналогічно, інваріантну відносно зсуву нейронну мережу було запропоновано для розпізнавання зображень символів 1988 року. Цю архітектуру та алгоритм тренування було видозмінено 1991 року та застосовано до обробки медичних зображень та автоматичного виявлення раку молочної залози в маммограмах.
1988 року було запропоновано відмінну конструкцію на основі згортки для застосування в розкладі згорнутих одновимірних сигналів електроміографії шляхом розгортки. 1989 року її було видозмінено для інших схем на основі розгортки.
Нейронна піраміда абстракцій
Архітектуру прямого поширення згорткових нейронних мереж було розширено в нейронній піраміді абстракцій (англ. neural abstraction pyramid) бічними з'єднаннями та з'єднаннями зворотного зв'язку. Отримана в результаті рекурентна згорткова мережа уможливлює гнучке включення контекстної інформації для ітеративного розв'язання локальних неоднозначностей. На відміну від попередніх моделей, породжувалися виходи, подібні до зображень, на найвищій роздільній здатності.
Втілення на ГП
Слідом за працею 2005 року, яка встановила значення ГПЗП для машинного навчання, декілька публікацій описали ефективніші шляхи тренування згорткових нейронних мереж із застосуванням ГП. 2011 року їх було уточнено й реалізовано на ГП, із вражаючими результатами. 2012 року Чирешан та ін. значно вдосконалили найкращу серед літератури продуктивність для кількох баз даних зображень, включно з базою даних MNIST, базою даних NORB, набором даних HWDB1.0 (китайські символи), набором даних CIFAR10 (набір з 60000 мічених [en] 32×32) та набором даних ImageNet.
Розрізнювання ознак
В той час як традиційні моделі багатошарового перцептрону (БШП) успішно застосовувалися для розпізнавання зображень,[] через повну з'єднаність між вузлами вони потерпають від прокляття розмірності, і, отже, не дуже добре масштабуються на зображення вищих роздільностей.
Наприклад, у наборі CIFAR-10 зображення мають розмір лише 32×32×3 (ширина 32, висота 32, 3 канали кольору), тому один повноз'єднаний нейрон у першому прихованому шарі звичайної нейронної мережі матиме 32*32*3 = 3 072 ваг. Проте зображення 200×200 призведе до нейронів, що мають 200*200*3 = 120 000 ваг.
Також, такі мережеві архітектури не беруть до уваги просторову структуру даних, розглядаючи вхідні пікселі, що є далеко один від одного, таким же чином, як і пікселі, що є близько один від одного. Таким чином, повна з'єднаність нейронів для таких цілей, як розпізнавання зображень, у яких переважають просторово локальні вхідні візерунки, є марнотратною.
Згорткові нейронні мережі є біологічно натхненими варіантами багатошарових перцептронів, розробленими для імітації поведінки зорової кори.[] Ці моделі пом'якшують виклики, поставлені архітектурою БШП, використовуючи сильну просторово локальну кореляцію, присутню в природних зображеннях. На противагу до БШП, ЗНМ мають наступні відмітні ознаки:
- Тривимірні ємності нейронів. Шари ЗНМ мають нейрони, впорядковані в 3 вимірах: ширина, висота та глибина. Нейрони всередині шару є з'єднаними лише з невеликою областю попереднього шару, що називається рецептивним полем. Для формування архітектури ЗНМ складають різні типи шарів, як локально-, так і повноз'єднані.
- Локальна з'єднаність: відповідно до концепції рецептивних полів, ЗНМ використовують просторову локальність шляхом застосування схеми локальної з'єднаності між нейронами сусідніх шарів. Ця архітектура таким чином забезпечує, що навчені «фільтри» виробляють найсильніший відгук до просторово локального вхідного образу. Складання багатьох таких шарів веде до нелінійних фільтрів, що стають все глобальнішими (тобто, чутливими до більшої області піксельного простору), так що мережа спочатку створює представлення дрібних деталей входу, а потім з них збирає представлення більших областей.
- Спільні ваги: В ЗНМ кожен фільтр повторюється на всьому зоровому полі. Ці повторні вузли використовують спільну параметризацію (вектор ваги та упередженості) та формують карту ознаки. Це означає, що всі нейрони в заданому згортковому шарі реагують на одну й ту ж саму ознаку в межах свого рецептивного поля. Повторювання вузлів таким чином дозволяє ознакам бути виявленими незалежно від їхнього положення в зоровому полі, забезпечуючи таким чином властивість інваріантності відносно зсуву.
Разом ці властивості дозволяють ЗНМ досягати кращого узагальнення на задачах бачення. Спільне використання ваг різко зменшує кількість вільних параметрів, яких вчиться мережа, знижуючи таким чином вимоги до пам'яті для роботи мережі та уможливлюючи тренування більших, потужніших мереж.
Будівельні блоки
Цей розділ потребує додаткових для поліпшення його . (січень 2018) |
Архітектура ЗНМ формується стосом різних шарів, що перетворюють ємність входу на ємність виходу (що, наприклад, зберігає рівні відношення до класів) за допомогою диференційовної функції. Зазвичай застосовується декілька різних типів шарів. Ми обговорюємо їх нижче:
Згортковий шар
Згортковий шар (англ. convolutional layer) є основним будівельним блоком ЗНМ. Параметри шару складаються з набору фільтрів для навчання (або ядер), які мають невеличке рецептивне поле, але простягаються на всю глибину вхідної ємності. Протягом прямого проходу кожен фільтр здійснює згортку за шириною та висотою вхідної ємності, обчислюючи скалярний добуток даних фільтру та входу, і формуючи 2-вимірну карту збудження цього фільтру. В результаті мережа навчається, які фільтри активуються, коли вона виявляє певний конкретний тип ознаки у певному просторовому положенні у вході.
Складання карт збудження всіх фільтрів уздовж виміру глибини формує повну ємність виходу згорткового шару. Таким чином, кожен запис в ємності виходу може також трактуватися як вихід нейрону, що дивиться на невеличку область у вході, та має спільні параметри з нейронами тієї ж карти збудження.
Локальна з'єднаність
При опрацюванні входів високої розмірності, таких як зображення, недоцільно з'єднувати нейрони з усіма нейронами попередньої ємності, оскільки така архітектура мережі не бере до уваги просторову структуру даних. Згорткові мережі використовують просторово локальну кореляцію шляхом забезпечення схеми локальної з'єднаності між нейронами сусідніх шарів: кожен нейрон з'єднано лише з невеликою областю вхідної ємності. Обшир цієї з'єднаності є гіперпараметром, що називається рецептивним полем нейрону. З'єднання є локальними в просторі (вздовж ширини та висоти), але завжди поширюються вздовж усієї глибини вхідної ємності. Така архітектура забезпечує, щоби навчені фільтри виробляли найсильніший відгук до просторово локальних вхідних образів.
Просторова організація
Розмір ємності виходу згорткового шару контролюють три гіперпараметри: глибина, крок та нульове доповнення.
- Глибина ємності виходу контролює кількість нейронів шару, що з'єднуються з однією й тією ж областю вхідної ємності. Ці нейрони вчаться активуватися для різних ознак входу. Наприклад, якщо перший згортковий шар бере як вхід сире зображення, то різні нейрони вздовж виміру глибини можуть активуватися в присутності різних орієнтованих контурів, або плям кольору.
- Крок контролює те, як стовпчики глибини розподіляються за просторовими вимірами (шириною та висотою). Коли кроком є 1, ми рухаємо фільтри на один піксель за раз. Це веде до сильного перекриття рецептивних полів між стовпчиками, а також до великих ємностей виходу. Коли ми робимо крок 2 (або, рідше, 3 чи більше), то фільтри, просуваючись, перестрибують на 2 пікселі за раз. Рецептивні поля перекриваються менше, й отримувана в результаті ємність виходу має менші просторові розміри.
- Іноді зручно доповнювати вхід нулями по краях вхідної ємності. Розмір цього доповнення є третім гіперпараметром. Доповнення забезпечує контроль над просторовим розміром ємності виходу. Зокрема, іноді бажано точно зберігати просторовий розмір вхідної ємності.
Просторовий розмір ємності виходу може обчислюватися як функція від розміру вхідної ємності , розміру ядрового поля нейронів згорткового шару , кроку, з яким вони застосовуються, , і величини нульового доповнення , що застосовується на краях. Формула для обчислення того, скільки нейронів «уміщається» до заданої ємності, задається як . Якщо це число не є цілим, то кроки встановлено неправильно, і нейрони не може бути розміщено вздовж вхідної ємності симетричним чином. Загалом, встановлення нульового доповнення в , коли кроком є , забезпечує, щоби ємності входу та виходу мали однаковий просторовий розмір. Хоча взагалі використання всіх нейронів попереднього шару не є абсолютно обов'язковим, наприклад, ви можете вирішити використовувати лише частину доповнення.
Спільне використання параметрів
Схема спільного використання параметрів застосовується в згорткових шарах для регулювання кількості вільних параметрів. Вона спирається на одне розумне припущення: якщо клаптикова ознака є корисною для обчислення в певному просторовому положенні, то вона також повинна бути корисною для обчислення й в інших положеннях. Іншими словами, позначаючи 2-вимірний зріз за глибиною як зріз глибини, ми обмежуємо нейрони в кожному зрізі глибини використанням одних і тих же ваг та упередженості.
Оскільки всі нейрони в одному зрізі поділяють спільну параметризацію, то прямий прохід у кожному зрізі глибини згорткового (англ. CONV) шару може бути обчислено як згортку ваг нейронів із вхідною ємністю (звідси й назва: згортковий шар). Таким чином, є звичним називати набори ваг фільтром (або ядром), який згортається із входом. Результатом цієї згортки є карта збудження, і набір карт збудження для кожного з різних фільтрів складають докупи вздовж виміру глибини для отримання ємності виходу. Спільне використання параметрів сприяє інваріантності архітектури ЗНМ відносно зсуву.
Іноді спільне використання параметрів може й не мати сенсу. Особливо в тому разі, коди вхідні зображення до ЗНМ мають певну особливу центровану структуру, в якій ми очікуємо зовсім різних ознак для навчання в різних просторових положеннях. Одним із практичних прикладів є коли вхід є обличчями, що було відцентровано в зображенні: ми можемо очікувати, що вчитимемося різних особливих ознак очей та волосся в різних частинах зображення. В такому разі є звичним пом'якшувати схему спільного використання параметрів, і натомість просто називати шар локально з'єднаним.
Агрегувальний шар
Іншим важливим поняттям ЗНМ є агрегування (англ. pooling), яке є різновидом нелінійного зниження дискретизації. Існує декілька нелінійних функцій для реалізації агрегування, серед яких найпоширенішою є максимізаційне агрегування (англ. max pooling). Воно розділяє вхідне зображення на набір прямокутників без перекриттів, і для кожної такої підобласті виводить її максимум. Ідея полягає в тому, що точне положення ознаки не так важливе, як її грубе положення відносно інших ознак. Агрегувальний шар слугує поступовому скороченню просторового розміру представлення для зменшення кількості параметрів та об'єму обчислень у мережі, і відтак також для контролю перенавчання. В архітектурі ЗНМ є звичним періодично вставляти агрегувальний шар між послідовними згортковими шарами. Операція агрегування забезпечує ще один різновид інваріантності відносно паралельного перенесення.
Агрегувальний шар діє незалежно на кожен зріз глибини входу, і зменшує його просторовий розмір. Найпоширенішим видом є агрегувальний шар із фільтрами розміру 2×2, що застосовуються з кроком 2, який знижує дискретизацію кожного зрізу глибини входу в 2 рази як за шириною, так і за висотою, відкидаючи 75 % збуджень. В цьому випадку кожна операція взяття максимуму діє над 4 числами. Розмір за глибиною залишається незмінним.
На додачу до максимізаційного агрегування, агрегувальні вузли можуть використовувати й інші функції, такі як усереднювальне агрегування (англ. average pooling) та L2-нормове агрегування (англ. L2-norm pooling). Історично усереднювальне агрегування застосовувалася часто, але останнім часом впало в немилість у порівнянні з дією максимізаційного агрегування, робота якого на практиці виявилася кращою.
Через агресивне скорочення розміру представлення, тенденція йде до менших фільтрів, або відмови від агрегувального шару взагалі.
Агрегування областей інтересу (англ. Region of Interest pooling, відоме також як англ. RoI pooling), — це варіація максимізаційного агрегування, в якій розмір виходу фіксовано, а прямокутник входу є параметром.
Агрегування є важливою складовою згорткових нейронних мереж для виявляння об'єктів, що ґрунтуються на архітектурі швидких згорткових нейронних мереж на основі областей (англ. Fast R-CNN).
Шар зрізаних лінійних вузлів (ReLU)
ReLU є абревіатурою від англ. Rectified Linear Units. Цей шар застосовує [en] передавальну функцію . Він посилює нелінійні властивості функції ухвалення рішення і мережі в цілому, не зачіпаючи рецептивних полів згорткового шару.
Для посилення нелінійності застосовуються й інші функції, наприклад, насичувальні гіперболічний тангенс , , та сигмоїдна функція . Зрізаному лінійному вузлові (англ. ReLU) часто віддають перевагу перед іншими функціями, оскільки він тренує нейронну мережу в декілька разів швидше без значної розплати точністю узагальнення.
Повноз'єднаний шар
Насамкінець, після кількох згорткових та максимізаційно агрегувальних шарів, високорівневі міркування в нейронній мережі здійснюються повноз'єднаними шарами (англ. fully connected layers). Нейрони у повноз'єднаному шарі мають з'єднання з усіма збудженнями попереднього шару, як це можна бачити у звичайних нейронних мережах. Їхні збудження відтак може бути обчислювано матричним множенням, за яким слідує зсув упередженості.
Шар втрат
Шар втрат визначає, як тренування штрафує відхилення між передбаченими та справжніми мітками, і є, як правило, завершальним шаром. Для різних завдань у ньому можуть використовувати різні функції втрат. Нормовані експоненційні втрати (англ. softmax) застосовуються для передбачення єдиного класу з K взаємно виключних класів. Сигмоїдні перехресно-ентропійні втрати застосовуються для передбачення K незалежних значень імовірності в проміжку . Евклідові втрати застосовуються для регресії до дійснозначних міток .
Вибір гіперпараметрів
Цей розділ потребує додаткових для поліпшення його . (січень 2018) |
ЗНМ використовує більше гіперпараметрів, ніж стандартний БШП. У той час як звичайні правила для темпів навчання та сталих регуляризації все ще застосовуються, при оптимізації потрібно мати на увазі наступне.
Кількість фільтрів
Оскільки карта ознак з глибиною зменшується, шари поруч із вхідним шаром, як правило, матимуть менше фільтрів, тоді як вищі шари можуть мати більше. Для вирівнювання обчислень на кожному шарі, добуток ознак × піксельні позиції підтримують грубо сталим по всіх шарах. Збереження більшої кількості інформації про вхід вимагатиме забезпечення, щоби загальне число збуджень (кількість відображень ознак на кількість піксельних положень) не зменшувалося від одного шару до наступного.
Кількість карт ознак напряму контролює ємність, і залежить від кількості доступних прикладів та складності завдання.
Форма фільтрів
Поширені в літературі форми поля фільтрів сильно різняться, і зазвичай вибираються в залежності від набору даних.
Таким чином, складність полягає в знаходженні правильного рівня зернистості, щоби створювати абстракції у правильному масштабі для певного набору даних.
Форми максимізаційних агрегувань
Типовими значеннями є 2×2. Дуже великі вхідні об'єми можуть виправдовувати на нижчих шарах агрегування 4×4. Проте вибір більших форм різко знижуватиме розмірність сигналу, і може призводити до надмірної втрати інформації. Часто найкраще працюють вікна агрегування без перекривання.
Методи регуляризації
Цей розділ потребує додаткових для поліпшення його . (січень 2018) |
Регуляризація — це процес введення додаткової інформації для розв'язання некоректно поставленої задачі або запобігання перенавчанню. ШНМ використовують різні типи регуляризації.
Емпіричні
Виключення
Оскільки повноз'єднаний шар займає найбільше параметрів, він є схильним до перенавчання. Одним з методів зниження перенавчання є виключення (англ. dropout). На кожному етапі тренування окремі вузли або «виключаються» з мережі з імовірністю , або залишаються з імовірністю , так що залишається зменшена мережа; вхідні та вихідні ребра виключених вузлів також усуваються. На наступному етапі на даних тренується вже лише зменшена мережа. Після цього усунені вузли повторно вставляються до мережі з їхніми первинними вагами.
На етапах тренування ймовірністю того, що прихований вузол буде виключено, зазвичай є 0.5; для вхідних вузлів вона повинна бути набагато нижчою, інтуїтивно тому, що при ігноруванні вхідних вузлів відбувається безпосередня втрата інформації.
Під час перевірки після завершення тренування ми в ідеалі хотіли би знайти вибіркове середнє всіх можливих мереж із виключеннями; на жаль, для великих значень це є нездійсненним. Тим не менше, ми можемо знайти наближення, використовуючи повну мережу, в якій вихід кожного вузла зважено на коефіцієнт , так що математичне очікування значення виходу будь-якого вузла буде таким самим, як і на етапах тренування. Це є найбільшим внеском методу виключення: хоча він ефективно породжує нейронних мереж, і таким чином уможливлює поєднання моделей, під час перевірки перевіряти необхідно лише одну мережу.
Уникаючи тренування всіх вузлів на всіх тренувальних даних, виключення знижує перенавчання. Цей метод також значно покращує швидкість тренування. Це робить поєднання моделей практичним, навіть для глибоких нейронних мереж. Схоже, що ця методика послаблює взаємодії між вузлами, ведучи їх до навчання надійніших ознак, що краще узагальнюються на нові дані.
Виключення з'єднань
Виключення з'єднань (англ. DropConnect) є узагальненням виключення (англ. dropout), в якому кожне з'єднання, а не кожен вузол виходу, може бути виключено з імовірністю . Таким чином, кожен вузол отримує вхід з випадкової підмножини вузлів попереднього шару.
Виключення з'єднань є подібним до виключення тим, що воно вводить до моделі динамічну розрідженість, але відрізняється тим, що ймовірність є на вагах, а не на векторах виходу шару. Іншими словами, повноз'єднаний шар з виключенням з'єднань стає розріджено з'єднаним шаром, у якому з'єднання обираються випадково під час етапу тренування.
Стохастичне агрегування
Головним недоліком виключення є те, що воно не має таких самих переваг для згорткових шарів, де нейрони не є повноз'єднаними.
В стохастичному агрегуванні (англ. stochastic pooling) звичайні детерміновані дії агрегування замінюються стохастичною процедурою, в якій збудження в межах кожної області агрегування вибирається випадково, відповідно до поліноміального розподілу, заданого збудженнями в межах області агрегування. Цей підхід є вільним від гіперпараметрів, і може поєднуватися з іншими підходами до регуляризації, такими як виключення, та нарощування даних.
Альтернативним поглядом на стохастичне агрегування є те, що воно є рівнозначним стандартному максимізаційному агрегуванню, але з багатьма копіями вхідного зображення, кожна з яких має невеликі локальні деформації. Це є подібним до явних еластичних деформацій вхідних зображень, які забезпечують відмінну продуктивність у MNIST. Застосування стохастичного агрегування в багатошаровій моделі дає експоненційне число деформацій, оскільки вибори у вищих шарах залежать від виборів у нижчих.
Штучні дані
Оскільки ступінь перенавчання моделі визначається як її потужністю, так і кількістю отримуваного нею тренування, забезпечення згорткової мережі більшою кількістю тренувальних прикладів може знижувати перенавчання. Оскільки ці мережі зазвичай тренують усіма наявними даними, одним із підходів є або породжувати нові дані з нуля (якщо це можливо), або збурювати наявні дані для створення нових. Наприклад, вхідні зображення може бути асиметрично обрізувано на декілька відсотків для створення нових прикладів з таким же маркером, як і первинний.
Явні
Рання зупинка
Одним із найпростіших методів запобігання перенавчанню мережі є просто зупиняти тренування, перш ніж перенавчання отримає шанс відбутися. Такий підхід має той недолік, що процес навчання обривається.
Кількість параметрів
Іншим простим шляхом запобігання перенавчанню є обмежити кількість параметрів, зазвичай обмежуючи кількість прихованих вузлів у кожному шарі, або обмежуючи глибину мережі. Для згорткових мереж на кількість параметрів впливає й розмір фільтру. Обмежування кількості параметрів безпосередньо обмежує передбачувальну потужність мережі, знижуючи складність функції, яку вона може виконувати на даних, і відтак обмежує розмір перенавчання. Це є рівнозначним [en].
Ослаблення ваг
Простим видом доданого регуляризатора є ослаблення ваг (англ. weight decay), яке просто додає до похибки кожного вузла додаткову похибку, пропорційну сумі ваг (норма L1) або квадратові величини (норма L2) вектора ваг. Рівень прийнятної складності моделі може бути знижено збільшенням сталої пропорційності, що тим самим збільшує штраф за великі вектори ваг.
L2-регуляризація (англ. L2 regularization) є найпоширенішим видом регуляризації. Її може бути реалізовано штрафуванням квадратного ступеня всіх параметрів безпосередньо в цілі. L2-регуляризація має інтуїтивну інтерпретацію в сильному штрафуванні пікових вагових векторів, та віддаванні переваги розсіяним ваговим векторам. У зв'язку з багатократними взаємодіями між вагами та входами, це має корисну властивість заохочення мережі використовувати всі її входи потроху, замість сильного використання лише деяких із них.
L1-регуляризація (англ. L1 regularization) є іншим поширеним видом. Можливо поєднувати L1 та L2-регуляризації (це називається [en], англ. elastic net regularization). L1-регуляризація веде вагові вектори до набуття розрідженості протягом оптимізації. Іншими словами, нейрони з L1-регуляризацією закінчують використанням лише розрідженої підмножини їхніх найважливіших входів, і стають майже інваріантними відносно зашумлених входів.
Обмеження максимуму норми
Іншим видом регуляризації є нав'язування абсолютної верхньої межі величині вагового вектора для кожного нейрону, і застосування [en] для забезпечення цього обмеження. На практиці це відповідає виконанню уточнення параметрів як завжди, а потім забезпеченню обмеження затисненням вагового вектора кожного нейрона, щоби він задовольняв . Типові значення є порядку 3 або 4. Деякі праці повідомляють про поліпшення при застосуванні цього виду регуляризації.
Ієрархічні координатні сітки
Агрегування призводить до втрат точних просторових взаємовідношень між високорівневими частинами (такими як ніс та рот у зображенні обличчя). А ці взаємовідношення потрібні для розпізнавання особи. Зберігати цю інформацію допомагає перекривання агрегувань, таке, що кожна ознака трапляється в декількох агрегуваннях. Саме лише паралельне перенесення не може екстраполювати розуміння геометричних взаємовідношень на докорінно нову точку огляду, таку як інша орієнтація, або інший масштаб. З іншого боку, люди є дуже вправними в екстраполяції; побачивши нову фігуру один раз, вони можуть розпізнати її з іншої точки огляду.
Наразі поширеним способом подолання цієї проблеми є тренування мережі на перетворених даних в різних орієнтаціях, масштабах, освітленні тощо, щоби мережа могла впоруватися з цими варіаціями. Для великих наборів це є обчислювально напруженим. Альтернативою є застосування ієрархії координатних сіток (англ. coordinate frames) та використання групи нейронів для представлення зв'язку форми фігури та її положення відносно сітківки. Положення відносно сітківки є взаємовідношенням між координатною сіткою сітківки та власною координатною сіткою ознаки.
Таким чином, одним зі способів представлення чогось є вбудовування координатної сітки у це. Щойно це зроблено, великі ознаки можуть розпізнаватися застосуванням узгодженості положень їхніх частин (наприклад, положення носа та рота роблять узгоджене передбачення положення всього обличчя). Застосування цього гарантує присутність сутності вищого рівня (наприклад, обличчя), якщо нижчий рівень (наприклад, ніс та рот) має узгодженість передбачення її положення. Вектори нейронної активності, що представляють положення («вектори положення», англ. «pose vectors»), уможливлюють моделювання просторових перетворень через лінійні операції, що спрощує мережі навчання ієрархії візуальних сутностей та узагальнення за точками огляду. Це є подібним до того, як людський зоровий аналізатор накладає координатні сітки для представлення фігур.
Застосування
Розпізнавання зображень
ЗНМ часто застосовують у системах розпізнавання зображень. 2012 року було повідомлено про 0.23-відсотковий [en] на базі даних MNIST. Ще одна праця про застосування ЗНМ для класифікації зображень повідомила, що процес навчання був «на диво швидким»; у тій самій праці було досягнуто найкращих із опублікованих на 2011 рік результатів на базах даних MNIST та NORB.
ЗНМ досягли великого зниження рівня похибки при застосуванні до розпізнавання облич. Інша праця повідомила про 97.6-відсотковий рівень розпізнавання на «5 600 нерухомих зображеннях понад 10 суб'єктів». ЗНМ використовували для оцінки якості відео об'єктивним чином, після тренування вручну; отримана в результаті система мала дуже низьку [en].
[en] (англ. ImageNet Large Scale Visual Recognition Challenge) є еталоном у класифікації та виявленні об'єктів, з мільйонами зображень та сотнями класів об'єктів. В ILSVRC 2014, великомасштабнім змаганні з візуального розпізнавання, майже кожна команда, яка досягла високого рівня, використовувала ЗНМ як свою основну схему. Переможець, GoogLeNet (основа DeepDream), збільшив очікувану середню влучність виявлення об'єктів до 0.439329, і знизив похибку класифікації до 0.06656, найкращого результату на той момент. Його мережа застосовувала понад 30 шарів. Ця продуктивність згорткових нейронних мереж у завданнях ImageNet була близькою до людської. Найкращі алгоритми все ще б'ються з об'єктами, що є маленькими або тонкими, такими як маленький мураха на стеблі квітки, або особа, що тримає перо в руці. Вони також мають проблеми із зображеннями, що було спотворено фільтрами, все поширенішим явищем із сучасними цифровими камерами. На противагу, такі типи зображень рідко викликають утруднення в людей. Люди, проте, схильні мати проблеми з іншими питаннями. Наприклад, вони не дуже вправні в класифікуванні об'єктів на тонкі категорії, такі як окремі породи собак або види птахів, у той час як для згорткових нейронних мереж це легка задача.
2015 року багатошарова ЗНМ продемонструвала здатність з конкурентоспроможною продуктивністю помічати обличчя з великого діапазону кутів, включно із перевернутими, навіть частково закритими. Ця мережа тренувалася на базі даних із 200 000 зображень, що включали обличчя під різними кутами та в різних орієнтаціях, і ще 20 мільйонів зображень без облич. Вони використовували пакети зі 128 зображень у 50 000 ітерацій.
Аналіз відео
У порівнянні з галузями даних зображень, роботи із застосування ЗНМ до класифікації відео є відносно мало. Відео є складнішим за зображення, оскільки воно має ще один (часовий) вимір. Тим не менше, деякі розширення ЗНМ в область відео було досліджено. Одним із підходів є трактувати простір та час як рівноцінні виміри входу, та виконувати згортку як за часом, так і за простором. Іншим підходом є злиття ознак двох згорткових нейронних мереж, однієї для просторового та однієї для часового потоків. Було представлено схеми спонтанного навчання для тренування просторово-часових ознак на основі згорткових вентильних обмежених машин Больцмана (англ. Convolutional Gated Restricted Boltzmann Machine) та методу незалежних підпросторів (англ. Independent Subspace Analysis).
Обробка природної мови
ЗНМ також розвідували й обробку природної мови. Моделі ЗНМ є ефективними для різних задач ОПМ, і вони досягали відмінних результатів у семантичному розборі, отриманні результатів пошукових запитів, моделюванні речень, класифікації, передбаченні та інших традиційних задачах ОПМ.
Пошук нових ліків
ЗНМ застосовувалися в [en]. Передбачення взаємодії між молекулами та біологічними білками може ідентифікувати потенційні ліки. 2015 року Atomwise представила AtomNet, першу нейронну мережу глибокого навчання для раціонального конструювання ліків на основі структури. Ця система тренується безпосередньо на 3-вимірних представленнях хімічних взаємодій. Подібно до того, як мережа розпізнавання зображень навчається складати менші, просторово близькі ознаки у більші, складні структури, AtomNet відкриває нові хімічні ознаки, такі як ароматичність, sp3-вуглеці та водневе зв'язування. Згодом AtomNet було використано для передбачення новітніх кандидатур біомолекул для цілей численних хвороб, передусім для лікування вірусу Ебола та розсіяного склерозу.
Шашки
ЗНМ використовували у грі в шашки. У 1999—2001 роках [en] та Челлапілла опублікували праці, що показали, як згорткова нейронна мережа може навчитися грати в шашки, застосовуючи ковеволюцію. Процес навчання не використовував попередніх професійних ігор людей, а натомість зосереджувався на мінімальному наборі інформації, що містився на шахівниці: положенні та типові фігур, та різниці в оцінці партій. Врешті-решт, цю програму ([en]) було перевірено на 165 іграх проти гравців, і вона увійшла до найвищих 0,4 %. Вона також здобула перемогу над програмою Chinook на її рівні гри «експерт».
Ґо
ЗНМ застосовувалися в комп'ютернім ґо. У грудні 2014 року Кларк та Сторкі опублікували працю, яка показала, що ЗНМ, тренована керованим навчанням з бази даних людських професійних ігор, може перевершувати GNU Go}} та вигравати деякі ігри проти Fuego 1.1 деревного пошуку Монте-Карло за лише частку часу, потрібного Fuego для гри. Згодом було оголошено, що велика 12-шарова згорткова нейронна мережа правильно передбачила професійний хід у 55 % положень, зрівнявши точність із [en] людських гравців. Коли тренована згорткова мережа застосовувалася безпосередньо для гри у ґо, без жодного пошуку, вона поборола традиційну пошукову програму GNU Go в 97 % ігор, і досягла рівня продуктивності програми деревного пошуку Монте-Карло Fuego, яка імітує десять тисяч розіграшів (близько мільйона позицій) за хід.
AlphaGo, перша програма, яка побила найкращого на той момент гравця-людину, застосовувала пару ЗНМ для вибору ходів для проби («мережа стратегії», англ. policy network), та для оцінки позицій («мережа значення», англ. value network), що працювала на ДПМК.
Тонке налаштування
Для багатьох застосувань тренувальних даних доступно мало. А згорткові нейронні мережі зазвичай вимагають великої кількості тренувальних даних, щоби запобігати перенавчанню. Поширеною методикою є тренувати мережу на ширшому наборі даних з пов'язаної області визначення. Щойно параметри мережі зійшлися, виконується додатковий етап тренування із застосуванням даних з області визначення для тонкого налаштування ваг мережі. Це дозволяє згортковим мережам успішно застосовуватися до задач з невеликими тренувальними наборами.
Розширення
Глибокі Q-мережі
Глибока Q-мережа (англ. deep Q-network, DQN) — це такий тип глибокої моделі навчання, який поєднує ЗНМ із Q-навчанням, різновидом навчання з підкріпленням. На відміну від попередніх агентів навчання з підкріпленням, DQN може навчатися безпосередньо з сенсо́рних входів високої розмірності.
Попередні результати було представлено 2014 року, а супровідний документ — у лютому 2015 року. Це дослідження описувало застосування до гри в ігри Atari 2600. Йому передували інші моделі глибокого навчання з підкріпленням.
Глибокі мережі переконань
Згорткові глибокі мережі переконань (ЗГМП, англ. convolutional deep belief networks, CDBN) мають структуру, дуже подібну до згорткових нейронних мереж, і тренуються подібно до глибоких мереж переконань. Таким чином, вони використовують двовимірну структуру зображень, як це роблять ЗНМ, і користаються попереднім тренуванням як глибокі мережі переконань. Вони забезпечують загальну структуру, яку можливо використовувати в багатьох задачах обробки зображень та сигналу. Із застосуванням ЗГМП було отримано зразкові результати на стандартних базах даних зображень, таких як CIFAR.
Нейронні мережі з часовою затримкою
Нейронна мережа з часовою затримкою дозволяє сигналам мовлення бути оброблюваними інваріантно відносно часу, аналогічно до інваріантності відносно паралельного перенесення, що пропонують ЗНМ. Їх було представлено на початку 1980-х років. Замощування виходів нейронів може покривати часові періоди.
Поширені бібліотеки
- Caffe: Популярна бібліотека для згорткових нейронних мереж. Створена Центром бачення і навчання Берклі (англ. Berkeley Vision and Learning Center, BVLC). Вона підтримує як ЦП, так і ГП. Розроблена мовою , і має обгортки для Python та MATLAB.
- Deeplearning4j: Глибоке навчання мовами Java та Scala на Spark, який має багато-ГП-шну підтримку. Бібліотека глибокого навчання [ 30 березня 2016 у Wayback Machine.] загального призначення для стеку розробки JVM, що працює на рушії наукових обчислень мовою C++ [ 11 червня 2018 у Wayback Machine.]. Дозволяє створювати власні шари. Поєднується з Hadoop та Kafka.
- deeplearning-hs [ 8 грудня 2015 у Wayback Machine.]: Глибоке навчання для Haskell, підтримує обчислення з CUDA.
- MatConvNet [ 3 лютого 2016 у Wayback Machine.]: Зручне втілення для MATLAB.
- MXNet [ 18 серпня 2017 у Wayback Machine.]: Відкрита система глибокого навчання, що є масштабованою, включно з підтримкою декількох ГП та ЦП для розподілу. Вона підтримує інтерфейси декількома мовами (C++, Python, Julia, Matlab, JavaScript, Go, R, Scala, Perl, Wolfram).
- neon [ 1 лютого 2016 у Wayback Machine.]: Найшвидша [ 25 січня 2016 у Wayback Machine.] система для згорткових нейронних мереж та глибокого навчання з підтримкою підсистем ЦП та ГП. Передній край є мовою Python, тоді як швидкі ядра пишуться особливим шейдерним асемблером. Створена компанією Nervana Systems, яку було придбано компанією Intel.
- TensorFlow [ 26 січня 2016 у Wayback Machine.]: Ліцензована за Apache 2.0 Theano-подібна бібліотека з підтримкою ЦП, ГП, власницького ТП Google, мобільних
- Theano: Еталонна бібліотека глибокого навчання для Python з ППІ, значною мірою сумісним з популярною бібліотекою NumPy. Дозволяє користувачам писати символічні математичні вирази, потім автоматично породжує їхні похідні, вберігаючи користувача від обов'язку кодувати градієнти або зворотне поширення. Ці символічні вирази автоматично компілюються в CUDA для отримання швидкої реалізації на ГП.
- Torch (www.torch.ch [ 9 липня 2016 у Wayback Machine.]): Система наукових обчислень з широкою підтримкою алгоритмів машинного навчання, написана мовами C та Lua. Основним автором є Ронан Коллобер (англ. Ronan Collobert), і її зараз застосовують у Facebook AI Research та Twitter.
- Microsoft Cognitive Toolkit: Інструментарій глибокого навчання, написаний Microsoft, із деякими унікальними властивостями, що підвищують масштабованість над декількома вузлами. Він підтримує повноцінні інтерфейси для тренування в C++ та Python, і з додатковою підтримкою для виведення моделей у C# та Java.
Поширені ППІ
- Keras: Високорівневий ППІ, написаний мовою Python для згорткових нейронних мереж TensorFlow та Theano.
У популярній культурі
Згорткові нейронні мережі згадуються в романі 2017 року «Infinity Born».
Див. також
Примітки
- LeCun, Yann. . Архів оригіналу за 24 лютого 2021. Процитовано 16 листопада 2013. (англ.)
- Zhang, Wei (1988). . Proceedings of annual conference of the Japan Society of Applied Physics. Архів оригіналу за 6 лютого 2017. (англ.)
- Zhang, Wei (1990). . Applied Optics. 29 (32): 4790—7. Bibcode:1990ApOpt..29.4790Z. doi:10.1364/AO.29.004790. PMID 20577468. Архів оригіналу за 6 лютого 2017. (англ.)
- Matusugu, Masakazu; Katsuhiko Mori; Yusuke Mitari; Yuji Kaneda (2003). (PDF). Neural Networks. 16 (5): 555—559. doi:10.1016/S0893-6080(03)00115-1. Архів оригіналу (PDF) за 13 грудня 2013. Процитовано 17 листопада 2013. (англ.)
- van den Oord, Aaron; Dieleman, Sander; Schrauwen, Benjamin (1 січня 2013). Burges, C. J. C.; Bottou, L.; Welling, M.; Ghahramani, Z.; Weinberger, K. Q. (ред.). (PDF). Curran Associates, Inc. с. 2643—2651. Архів оригіналу (PDF) за 16 травня 2017. Процитовано 19 січня 2016. (англ.)
- Collobert, Ronan; Weston, Jason (1 січня 2008). A Unified Architecture for Natural Language Processing: Deep Neural Networks with Multitask Learning. Proceedings of the 25th International Conference on Machine Learning. ICML '08. New York, NY, USA: ACM: 160—167. doi:10.1145/1390156.1390177. ISBN . (англ.)
- . DeepLearning 0.1. LISA Lab. Архів оригіналу за 28 грудня 2017. Процитовано 31 серпня 2013. (англ.)
- Habibi,, Aghdam, Hamed. Guide to convolutional neural networks : a practical application to traffic-sign detection and classification. Heravi, Elnaz Jahani,. Cham, Switzerland. ISBN . OCLC 987790957. (англ.)
- Ciresan, Dan; Ueli Meier; Jonathan Masci; Luca M. Gambardella; Jurgen Schmidhuber (2011). (PDF). Proceedings of the Twenty-Second international joint conference on Artificial Intelligence-Volume Volume Two. 2: 1237—1242. Архів оригіналу (PDF) за 16 листопада 2013. Процитовано 17 листопада 2013. (англ.)
- Krizhevsky, Alex. (PDF). Архів оригіналу (PDF) за 12 травня 2013. Процитовано 17 листопада 2013. (англ.)
- Ciresan, Dan; Meier, Ueli; Schmidhuber, Jürgen (June 2012). (PDF). 2012 [en]. New York, NY: Institute of Electrical and Electronics Engineers (IEEE): 3642—3649. arXiv:1202.2745v1. doi:10.1109/CVPR.2012.6248110. ISBN . OCLC 812295155. Архів оригіналу (PDF) за 7 березня 2016. Процитовано 9 грудня 2013. (англ.)
- Hubel, D. H.; Wiesel, T. N. (1 березня 1968). Receptive fields and functional architecture of monkey striate cortex. The Journal of Physiology. 195 (1): 215—243. doi:10.1113/jphysiol.1968.sp008455. ISSN 0022-3751. PMC 1557912. PMID 4966457. (англ.)
- LeCun, Yann; Bengio, Yoshua; Hinton, Geoffrey (2015). Deep learning. Nature. 521 (7553): 436—444. Bibcode:2015Natur.521..436L. doi:10.1038/nature14539. PMID 26017442. (англ.)
- Fukushima, Kunihiko (1980). (PDF). Biological Cybernetics. 36 (4): 193—202. doi:10.1007/BF00344251. PMID 7370364. Архів оригіналу (PDF) за 3 червня 2014. Процитовано 16 листопада 2013. (англ.)
- David E. Rumelhart; Geoffrey E. Hinton; Ronald J. Wiliams (1986). Chapter 8 : Learning Internal Representations by ErrorPropagation. У Rumelhart, David E.; McClelland, James.L. (ред.). Parallel Distributed Processing, Volume 1. MIT Press. с. 319–362. ISBN . (англ.)
- Homma, Toshiteru; Les Atlas; Robert Marks II (1988). (PDF). Advances in Neural Information Processing Systems. 1: 31—40. Архів оригіналу (PDF) за 28 березня 2016. Процитовано 19 січня 2016. (англ.)
- LeCun, Yann; Léon Bottou; Yoshua Bengio; Patrick Haffner (1998). (PDF). Proceedings of the IEEE. 86 (11): 2278—2324. doi:10.1109/5.726791. Архів оригіналу (PDF) за 3 липня 2021. Процитовано 7 жовтня 2016. (англ.)
- S. Behnke. Hierarchical Neural Networks for Image Interpretation, volume 2766 of Lecture Notes in Computer Science. Springer, 2003. (англ.)
- Simard, Patrice, David Steinkraus, and John C. Platt. «Best Practices for Convolutional Neural Networks Applied to Visual Document Analysis.» In ICDAR, vol. 3, pp. 958—962. 2003. (англ.)
- Слюсар, В.И. (2021). (PDF). IV Міжнародна науково-практична конференція «Інтеграція інформаційних систем і інтелектуальних технологій в умовах трансформації інформаційного суспільства», що присвячена 50-ій річниці кафедри інформаційних систем та технологій, 21-22 жовтня 2021 р., Полтава: Полтавський державний аграрний університет.: 114—119. doi:10.32782/978-966-289-562-9. Архів оригіналу (PDF) за 2 листопада 2021. Процитовано 30 жовтня 2021.
- Zhang, Wei (1991). . Proceedings of the International Joint Conference on Neural Networks. Архів оригіналу за 6 лютого 2017. (англ.)
- Zhang, Wei (1991). . Applied Optics. 30 (29): 4211—7. Bibcode:1991ApOpt..30.4211Z. doi:10.1364/AO.30.004211. PMID 20706526. Архів оригіналу за 6 лютого 2017. (англ.)
- Zhang, Wei (1994). . Medical Physics. 21 (4): 517—24. Bibcode:1994MedPh..21..517Z. doi:10.1118/1.597177. PMID 8058017. Архів оригіналу за 6 лютого 2017. (англ.)
- Daniel Graupe, Ruey Wen Liu, George S Moschytz."Applications of neural networks to medical signal processing". In Proc. 27th IEEE Decision and Control Conf., pp. 343—347, 1988. (англ.)
- Daniel Graupe, Boris Vern, G. Gruener, Aaron Field, and Qiu Huang. «Decomposition of surface EMG signals into single fiber action potentials by means of neural network». Proc. IEEE International Symp. on Circuits and Systems, pp. 1008—1011, 1989. (англ.)
- Qiu Huang, Daniel Graupe, Yi Fang Huang, Ruey Wen Liu."Identification of firing patterns of neuronal signals." In Proc. 28th IEEE Decision and Control Conf., pp. 266—271, 1989. (англ.)
- Behnke, Sven (2003). (PDF). Lecture Notes in Computer Science. Т. 2766. Springer. doi:10.1007/b11963. ISBN . Архів оригіналу (PDF) за 10 серпня 2017. Процитовано 21 січня 2018. (англ.)
- Dave Steinkraus; Patrice Simard; Ian Buck (2005). Using GPUs for Machine Learning Algorithms. . с. 1115—1119. Архів оригіналу за 15 березня 2016. Процитовано 9 липня 2016. (англ.)
- Kumar Chellapilla; Sid Puri; Patrice Simard (2006). High Performance Convolutional Neural Networks for Document Processing. У Lorette, Guy (ред.). . Suvisoft. Архів оригіналу за 18 травня 2020. Процитовано 9 липня 2016. (англ.)
- Hinton, GE; Osindero, S; Teh, YW (Jul 2006). A fast learning algorithm for deep belief nets. Neural computation. 18 (7): 1527—54. doi:10.1162/neco.2006.18.7.1527. PMID 16764513. (англ.)
- Bengio, Yoshua; Lamblin, Pascal; Popovici, Dan; Larochelle, Hugo (2007). Greedy Layer-Wise Training of Deep Networks. Advances in Neural Information Processing Systems: 153—160. (англ.)
- Ranzato, MarcAurelio; Poultney, Christopher; Chopra, Sumit; LeCun, Yann (2007). (PDF). Advances in Neural Information Processing Systems. Архів оригіналу (PDF) за 22 березня 2016. Процитовано 19 січня 2016. (англ.)
- 10. Deng, Jia, et al. "Imagenet: A large-scale hierarchical image database."Computer Vision and Pattern Recognition, 2009. CVPR 2009. IEEE Conference on. IEEE, 2009. (англ.)
- . cs231n.github.io. Архів оригіналу за 23 жовтня 2019. Процитовано 25 квітня 2017. (англ.)
- Scherer, Dominik; Müller, Andreas C.; Behnke, Sven (2010). (PDF). Artificial Neural Networks (ICANN), 20th International Conference on. Thessaloniki, Greece: Springer. с. 92—101. Архів оригіналу (PDF) за 3 квітня 2018. Процитовано 21 січня 2018. (англ.)
- Graham, Benjamin (18 грудня 2014). Fractional Max-Pooling. arXiv:1412.6071 [cs.CV]. (англ.)
- Springenberg, Jost Tobias; Dosovitskiy, Alexey; Brox, Thomas; Riedmiller, Martin (21 грудня 2014). Striving for Simplicity: The All Convolutional Net. arXiv:1412.6806 [cs.LG]. (англ.)
- Grel, Tomasz (28 лютого 2017). . deepsense.io (англ.). Архів оригіналу за 2 червня 2017. (англ.)
- Girshick, Ross (27 вересня 2017). Fast R-CNN. arXiv:1504.08083 [cs.CV]. (англ.)
- Krizhevsky, A.; Sutskever, I.; Hinton, G. E. (2012). . Advances in Neural Information Processing Systems. 1: 1097—1105. Архів оригіналу за 16 лютого 2015. Процитовано 19 січня 2016. (англ.)
- Srivastava, Nitish; C. Geoffrey Hinton; Alex Krizhevsky; Ilya Sutskever; Ruslan Salakhutdinov (2014). (PDF). Journal of Machine Learning Research. 15 (1): 1929—1958. Архів оригіналу (PDF) за 19 січня 2016. Процитовано 19 січня 2016. (англ.)
- Carlos E. Perez. . Архів оригіналу за 3 червня 2017. Процитовано 24 березня 2022. (англ.)
- . jmlr.org. Архів оригіналу за 4 березня 2016. Процитовано 17 грудня 2015. (англ.)
- Zeiler, Matthew D.; Fergus, Rob (15 січня 2013). Stochastic Pooling for Regularization of Deep Convolutional Neural Networks. arXiv:1301.3557 [cs.LG]. (англ.)
- . research.microsoft.com. Архів оригіналу за 22 грудня 2015. Процитовано 17 грудня 2015. (англ.)
- Hinton, Geoffrey E.; Srivastava, Nitish; Krizhevsky, Alex; Sutskever, Ilya; Salakhutdinov, Ruslan R. (2012). Improving neural networks by preventing co-adaptation of feature detectors. arXiv:1207.0580 [cs.NE]. (англ.)
- . jmlr.org. Архів оригіналу за 5 грудня 2019. Процитовано 17 грудня 2015. (англ.)
- Hinton, Geoffrey (1979). Some demonstrations of the effects of structural descriptions in mental imagery. Cognitive Science. 3 (3): 231—250. doi:10.1016/s0364-0213(79)80008-7. (англ.)
- Rock, Irvin. «The frame of reference.» The legacy of Solomon Asch: Essays in cognition and social psychology (1990): 243—268. (англ.)
- J. Hinton, Coursera lectures on Neural Networks, 2012, Url: https://www.coursera.org/learn/neural-networks [ 31 грудня 2016 у Wayback Machine.] (англ.)
- Lawrence, Steve; C. Lee Giles; Ah Chung Tsoi; Andrew D. Back (1997). Face Recognition: A Convolutional Neural Network Approach. Neural Networks, IEEE Transactions on. 8 (1): 98—113. CiteSeerX 10.1.1.92.5813. doi:10.1109/72.554195. (англ.)
- Le Callet, Patrick; Christian Viard-Gaudin; Dominique Barba (2006). (PDF). IEEE Transactions on Neural Networks. 17 (5): 1316—1327. doi:10.1109/TNN.2006.879766. PMID 17001990. Архів оригіналу (PDF) за 23 лютого 2014. Процитовано 17 листопада 2013. (англ.)
- . Архів оригіналу за 5 лютого 2016. Процитовано 30 січня 2016. (англ.)
- Szegedy, Christian; Liu, Wei; Jia, Yangqing; Sermanet, Pierre; Reed, Scott; Anguelov, Dragomir; Erhan, Dumitru; Vanhoucke, Vincent; Rabinovich, Andrew (2014). Going Deeper with Convolutions. Computing Research Repository. arXiv:1409.4842. (англ.)
- Russakovsky, Olga; Deng, Jia; Su, Hao; Krause, Jonathan; Satheesh, Sanjeev; Ma, Sean; Huang, Zhiheng; Karpathy, Andrej; Khosla, Aditya; Bernstein, Michael; Berg, Alexander C.; Fei-Fei, Li (2014). Image Net Large Scale Visual Recognition Challenge. arXiv:1409.0575 [cs.CV]. (англ.)
- . Technology Review. 16 лютого 2015. Архів оригіналу за 27 листопада 2015. Процитовано 27 жовтня 2017. (англ.)
- Baccouche, Moez; Mamalet, Franck; Wolf, Christian; Garcia, Christophe; Baskurt, Atilla (16 листопада 2011). Sequential Deep Learning for Human Action Recognition. У Salah, Albert Ali; Lepri, Bruno (ред.). . Lecture Notes in Computer Science. Т. 7065. Springer Berlin Heidelberg. с. 29—39. doi:10.1007/978-3-642-25446-8_4. ISBN . Архів оригіналу за 21 січня 2018. Процитовано 21 січня 2018. (англ.)
- Ji, Shuiwang; Xu, Wei; Yang, Ming; Yu, Kai (1 січня 2013). 3D Convolutional Neural Networks for Human Action Recognition. IEEE Transactions on Pattern Analysis and Machine Intelligence. 35 (1): 221—231. doi:10.1109/TPAMI.2012.59. ISSN 0162-8828. PMID 22392705. (англ.)
- Karpathy, Andrej, et al. «Large-scale video classification with convolutional neural networks.» IEEE Conference on Computer Vision and Pattern Recognition (CVPR). 2014. (англ.)
- Simonyan, Karen; Zisserman, Andrew (2014). Two-Stream Convolutional Networks for Action Recognition in Videos. arXiv:1406.2199 [cs.CV]. (англ.)
- Taylor, Graham W.; Fergus, Rob; LeCun, Yann; Bregler, Christoph (1 січня 2010). (PDF). Proceedings of the 11th European Conference on Computer Vision: Part VI. ECCV'10. Berlin, Heidelberg: Springer-Verlag: 140—153. ISBN . Архів оригіналу (PDF) за 5 лютого 2016. Процитовано 19 січня 2016. (англ.)
- Le, Q. V.; Zou, W. Y.; Yeung, S. Y.; Ng, A. Y. (1 січня 2011). (PDF). Proceedings of the 2011 IEEE Conference on Computer Vision and Pattern Recognition. CVPR '11. Washington, DC, USA: IEEE Computer Society: 3361—3368. doi:10.1109/CVPR.2011.5995496. ISBN . Архів оригіналу (PDF) за 23 грудня 2015. Процитовано 19 січня 2016. (англ.)
- Grefenstette, Edward; Blunsom, Phil; de Freitas, Nando; Hermann, Karl Moritz (29 квітня 2014). A Deep Architecture for Semantic Parsing. arXiv:1404.7296 [cs.CL]. (англ.)
- . research.microsoft.com. Архів оригіналу за 18 червня 2016. Процитовано 17 грудня 2015. (англ.)
- Kalchbrenner, Nal; Grefenstette, Edward; Blunsom, Phil (8 квітня 2014). A Convolutional Neural Network for Modelling Sentences. arXiv:1404.2188 [cs.CL]. (англ.)
- Kim, Yoon (25 серпня 2014). Convolutional Neural Networks for Sentence Classification. arXiv:1408.5882 [cs.CL]. (англ.)
- Collobert, Ronan, and Jason Weston. "A unified architecture for natural language processing: Deep neural networks with multitask learning."Proceedings of the 25th international conference on Machine learning. ACM, 2008. (англ.)
- Collobert, Ronan; Weston, Jason; Bottou, Leon; Karlen, Michael; Kavukcuoglu, Koray; Kuksa, Pavel (2 березня 2011). Natural Language Processing (almost) from Scratch. arXiv:1103.0398 [cs.LG]. (англ.)
- Wallach, Izhar; Dzamba, Michael; Heifets, Abraham (9 жовтня 2015). AtomNet: A Deep Convolutional Neural Network for Bioactivity Prediction in Structure-based Drug Discovery. arXiv:1510.02855 [cs.LG]. (англ.)
- Yosinski, Jason; Clune, Jeff; Nguyen, Anh; Fuchs, Thomas; Lipson, Hod (22 червня 2015). Understanding Neural Networks Through Deep Visualization. arXiv:1506.06579 [cs.CV]. (англ.)
- . The Globe and Mail. Архів оригіналу за 20 жовтня 2015. Процитовано 9 листопада 2015. (англ.)
- . KQED Future of You (en-us) . Архів оригіналу за 24 грудня 2015. Процитовано 9 листопада 2015. (англ.)
- Chellapilla, K; Fogel, DB (1999). Evolving neural networks to play checkers without relying on expert knowledge. IEEE Trans Neural Netw. 10 (6): 1382—91. doi:10.1109/72.809083. PMID 18252639. (англ.)
- http://ieeexplore.ieee.org/document/942536/ [ 17 червня 2018 у Wayback Machine.] (англ.)
- (2001). Blondie24: Playing at the Edge of AI. San Francisco, CA: Morgan Kaufmann. ASIN 1558607838. ISBN .
{{}}
: Перевірте значення|asin=
() (англ.) (англ.) - Clark, Christopher; Storkey, Amos (2014). Teaching Deep Convolutional Neural Networks to Play Go. arXiv:1412.3409 [cs.AI]. (англ.)
- Maddison, Chris J.; Huang, Aja; Sutskever, Ilya; Silver, David (2014). Move Evaluation in Go Using Deep Convolutional Neural Networks. arXiv:1412.6564 [cs.LG]. (англ.)
- . Архів оригіналу за 30 січня 2016. Процитовано 30 січня 2016. (англ.)
- Durjoy Sen Maitra; Ujjwal Bhattacharya; S.K. Parui, "CNN based common approach to handwritten character recognition of multiple scripts, " [ 28 липня 2020 у Wayback Machine.] in Document Analysis and Recognition (ICDAR), 2015 13th International Conference on, vol., no., pp.1021–1025, 23–26 Aug. 2015 (англ.)
- Mnih, Volodymyr та ін. (2015). Human-level control through deep reinforcement learning. Nature. 518 (7540): 529—533. Bibcode:2015Natur.518..529M. doi:10.1038/nature14236. PMID 25719670. (англ.)
- Sun, R.; Sessions, C. (June 2000). . IEEE Transactions on Systems, Man, and Cybernetics, Part B (Cybernetics). 30 (3): 403—418. doi:10.1109/3477.846230. ISSN 1083-4419. Архів оригіналу за 22 серпня 2017. Процитовано 21 січня 2018. (англ.)
- Lee, Honglak; Grosse, Roger; Ranganath, Rajesh; Ng, Andrew Y. (1 січня 2009). Convolutional Deep Belief Networks for Scalable Unsupervised Learning of Hierarchical Representations. Proceedings of the 26th Annual International Conference on Machine Learning – ICML '09. ACM: 609—616. doi:10.1145/1553374.1553453. ISBN — через ACM Digital Library. (англ.)
- (PDF). Архів оригіналу (PDF) за 30 серпня 2017. Процитовано 21 січня 2018. (англ.)
- [en] et al., Phoneme Recognition Using Time-Delay Neural Networks IEEE Transactions on Acoustics, Speech and Signal Processing, Volume 37, No. 3, pp. 328. — 339 March 1989. (англ.)
- Cade Metz (18 травня 2016). . Wired. Архів оригіналу за 13 січня 2018. Процитовано 21 січня 2018. (англ.)
- . keras.io (англ.). Архів оригіналу за 17 січня 2020. Процитовано 21 січня 2018. (англ.)
- Richards, Douglas E. (30 квітня 2017). (English) . Paragon Press. ISBN . Архів оригіналу за 18 листопада 2020. Процитовано 21 січня 2018. (англ.)
Посилання
- convnet-benchmarks [ 25 січня 2016 у Wayback Machine.] — простий порівняльний аналіз усіх відкритих реалізацій згорткових мереж (із результатами) (англ.)
- — легкий посібник про те, як працюють згорткові нейронні мережі (англ.)
- CS231n: Convolutional Neural Networks for Visual Recognition [ 20 січня 2018 у Wayback Machine.] — стендфордський курс з інформатики Андрія Карпати (англ. Andrej Karpathy) (англ.)
- An Intuitive Explanation of Convolutional Neural Networks [ 21 січня 2018 у Wayback Machine.] — введення початкового рівня до того, чим згорткові нейронні мережі є, і як вони працюють (англ.)
- Convolutional Neural Networks for Image Classification [ 21 січня 2018 у Wayback Machine.] — огляд літератури
Вікіпедія, Українська, Україна, книга, книги, бібліотека, стаття, читати, завантажити, безкоштовно, безкоштовно завантажити, mp3, відео, mp4, 3gp, jpg, jpeg, gif, png, малюнок, музика, пісня, фільм, книга, гра, ігри, мобільний, телефон, android, ios, apple, мобільний телефон, samsung, iphone, xiomi, xiaomi, redmi, honor, oppo, nokia, sonya, mi, ПК, web, Інтернет
Zgo rtkovi nejro nni mere zhi ZNM angl convolutional neural network CNN ConvNet v mashinnomu navchanni ce klas glibokih shtuchnih nejronnih merezh pryamogo poshirennya yakij uspishno zastosovuvavsya do analizu vizualnih zobrazhen ZNM vikoristovuyut riznovid bagatosharovih perceptroniv rozroblenij tak shobi vimagati vikoristannya minimalnogo obsyagu poperednoyi obrobki Voni vidomi takozh yak invaria ntni vidno sno zsu vu angl shift invariant abo prostoro vo invaria ntni shtu chni nejro nni mere zhi angl space invariant artificial neural networks SIANN vihodyachi z yihnoyi arhitekturi spilnih vag ta harakteristik invariantnosti vidnosno paralelnogo perenesennya Zgortkovi merezhi vzyali za osnovu biologichnij proces a same shemu z yednannya nejroniv zorovoyi kori tvarin Okremi nejroni kori reaguyut na en lishe v obmezhenij oblasti zorovogo polya vidomij yak receptivne pole Receptivni polya riznih nejroniv chastkovo perekrivayutsya takim chinom sho voni pokrivayut use zorove pole ZNM vikoristovuyut porivnyano malo poperednoyi obrobki v porivnyanni z inshimi algoritmami klasifikuvannya zobrazhen Ce oznachaye sho merezha navchayetsya en sho v tradicijnih algoritmah konstruyuvali vruchnu Cya nezalezhnist u konstruyuvanni oznak vid apriornih znan ta lyudskih zusil ye velikoyu perevagoyu Voni mayut zastosuvannya v rozpiznavanni zobrazhen ta video rekomendacijnih sistemah ta obrobci prirodnoyi movi KonstrukciyaZNM skladayetsya z shariv vhodu ta vihodu a takozh iz dekilkoh Prihovani shari ZNM zazvichaj skladayutsya zi zgortkovih shariv agreguvalnih shariv povnoz yednanih shariv ta shariv normalizaciyi Cej proces opisuyut v nejronnih merezhah yak zgortku za domovlenistyu Z matematichnoyi tochki zoru vin ye radshe vzayemnoyu korelyaciyeyu nizh zgortkoyu Ce maye znachennya lishe dlya indeksiv u matrici j vidtak yaki vagi na yakomu indeksi roztashovuyutsya Zgortkovi shari Zgortkovi shari zastosovuyut do vhodu operaciyu zgortki peredayuchi rezultat do nastupnogo sharu Zgortka imituye reakciyu okremogo nejronu na zorovij en Kozhen zgortkovij nejron obroblyaye dani lishe dlya svogo receptivnogo polya Hoch povnoz yednani nejronni merezhi pryamogo poshirennya j mozhlivo zastosovuvati yak dlya navchannya oznak tak i dlya klasifikuvannya danih zastosuvannya ciyeyi arhitekturi do zobrazhen ye nepraktichnim Bulo bi neobhidnim duzhe velike chislo nejroniv navit u neglibokij protilezhnij do glibokoyi arhitekturi cherez duzhe veliki rozmiri vhodu pov yazani z zobrazhennyami de kozhen piksel ye vidpovidnoyu zminnoyu Napriklad povnoz yednanij shar dlya malenkogo zobrazhennya rozmirom 100 100 maye 10 000 vag Operaciya zgortki daye zmogu rozv yazati cyu problemu oskilki vona zmenshuye kilkist vilnih parametriv dozvolyayuchi merezhi buti glibshoyu za menshoyi kilkosti parametriv Napriklad nezalezhno vid rozmiru zobrazhennya oblasti zamoshuvannya rozmiru 5 5 kozhna z odnimi j timi zh spilnimi vagami vimagayut lishe 25 vilnih parametriv Takim chinom ce rozv yazuye problemu znikannya abo vibuhu gradiyentiv u trenuvanni tradicijnih bagatosharovih nejronnih merezh z bagatma sharami za dopomogoyu zvorotnogo poshirennya dzherelo Agreguvalni shari Zgortkovi merezhi mozhut vklyuchati shari lokalnogo abo globalnogo agreguvannya proyasniti yaki ob yednuyut vihodi klasteriv nejroniv odnogo sharu do odnogo nejronu nastupnogo sharu Napriklad maksimizacijne agreguvannya angl max pooling vikoristovuye maksimalne znachennya z kozhnogo z klasteriv nejroniv poperednogo sharu Inshim prikladom ye userednyuvalne agreguvannya angl average pooling sho vikoristovuye userednene znachennya z kozhnogo z klasteriv nejroniv poperednogo sharu dzherelo Povnoz yednani shari Povnoz yednani shari z yednuyut kozhen nejron odnogo sharu z kozhnim nejronom nastupnogo sharu Ce v principi ye tim zhe sho j tradicijna nejronna merezha bagatosharovogo perceptronu BShP Vagi ZNM vikoristovuyut spilni vagi v zgortkovih sharah sho oznachaye sho dlya kozhnogo receptivnogo polya proyasniti kom sharu vikoristovuyetsya odin i toj zhe filtr bank vag proyasniti kom ce zmenshuye obsyag neobhidnoyi pam yati ta polipshuye produktivnist yak IstoriyaKonstrukciya ZNM nasliduye zorovi mehanizmi v zhivih organizmah dzherelo Receptivni polya Pracya G yubela ta Vizela v 1950 ti ta 1960 ti roki pokazala sho zorovi en kotiv ta mavp mistyat nejroni yaki okremo reaguyut na malenki dilyanki zorovogo polya Za umovi sho ochi ne ruhayutsya oblast zorovogo prostoru v mezhah yakoyi vizualnij stimul vplivaye na zbudzhennya odnogo nejronu vidoma yak jogo receptivne pole dzherelo Susidni klitini mayut podibni receptivni polya sho perekrivayutsya dzherelo Rozmir ta roztashuvannya receptivnih poliv sistematichno zminyuyutsya po vsij kori formuyuchi povne vidobrazhennya zorovogo prostoru dzherelo Kora kozhnoyi z pivkul predstavlyaye perehresne zorove pole dzherelo Yihnya pracya 1968 roku viznachila dva osnovni tipi zorovih klitin u mozku en chij vihid maksimizuyetsya pryamimi krayami sho mayut pevne oriyentuvannya v mezhah yihnih receptivnih poliv en sho mayut bilshi receptivni polya chij vihid ye nechutlivim do tochnogo polozhennya krayiv u poli Neokognitron Neokognitron bulo predstavleno 1980 roku Neokognitron ne vimagaye vid vuzliv roztashovanih v dekilkoh miscyah merezhi mati odni j ti zh trenovani vagi Cya ideya z yavlyayetsya 1986 roku v knizhnij versiyi pervinnoyi praci pro zvorotne poshirennya mal 14 Neokognitroni bulo rozrobleno 1988 roku dlya signaliv sho poshiryuyutsya v chasi proyasniti Yihnyu konstrukciyu bulo vdoskonaleno 1998 roku uzagalneno 2003 roku i togo zh roku sprosheno LeNet 5 Dokladnishe LeNet LeNet 5 7 rivneva zgortkova merezha vid LeKuna ta in zaproponovana u 1998 r yaka klasifikuye rukopisni cifri Bula zastosovano kilkoma bankami dlya rozpiznavannya rukopisnih cifr na chekah ocifrovuvanih u zobrazhennya 32 32 pikseliv Zdatnist obroblyuvati zobrazhennya vishoyi rozdilnosti vimagaye bilshoyi kilkosti zgortkovih shariv tozh cyu metodiku obmezheno nayavnistyu obchislyuvalnih resursiv Invariantna vidnosno zsuvu nejronna merezha Analogichno invariantnu vidnosno zsuvu nejronnu merezhu bulo zaproponovano dlya rozpiznavannya zobrazhen simvoliv 1988 roku Cyu arhitekturu ta algoritm trenuvannya bulo vidozmineno 1991 roku ta zastosovano do obrobki medichnih zobrazhen ta avtomatichnogo viyavlennya raku molochnoyi zalozi v mammogramah 1988 roku bulo zaproponovano vidminnu konstrukciyu na osnovi zgortki dlya zastosuvannya v rozkladi zgornutih odnovimirnih signaliv elektromiografiyi shlyahom rozgortki 1989 roku yiyi bulo vidozmineno dlya inshih shem na osnovi rozgortki Nejronna piramida abstrakcij Arhitekturu pryamogo poshirennya zgortkovih nejronnih merezh bulo rozshireno v nejronnij piramidi abstrakcij angl neural abstraction pyramid bichnimi z yednannyami ta z yednannyami zvorotnogo zv yazku Otrimana v rezultati rekurentna zgortkova merezha umozhlivlyuye gnuchke vklyuchennya kontekstnoyi informaciyi dlya iterativnogo rozv yazannya lokalnih neodnoznachnostej Na vidminu vid poperednih modelej porodzhuvalisya vihodi podibni do zobrazhen na najvishij rozdilnij zdatnosti Vtilennya na GP Slidom za praceyu 2005 roku yaka vstanovila znachennya GPZP dlya mashinnogo navchannya dekilka publikacij opisali efektivnishi shlyahi trenuvannya zgortkovih nejronnih merezh iz zastosuvannyam GP 2011 roku yih bulo utochneno j realizovano na GP iz vrazhayuchimi rezultatami 2012 roku Chireshan ta in znachno vdoskonalili najkrashu sered literaturi produktivnist dlya kilkoh baz danih zobrazhen vklyuchno z bazoyu danih MNIST bazoyu danih NORB naborom danih HWDB1 0 kitajski simvoli naborom danih CIFAR10 nabir z 60000 michenih en 32 32 ta naborom danih ImageNet Rozriznyuvannya oznakV toj chas yak tradicijni modeli bagatosharovogo perceptronu BShP uspishno zastosovuvalisya dlya rozpiznavannya zobrazhen cherez povnu z yednanist mizh vuzlami voni poterpayut vid proklyattya rozmirnosti i otzhe ne duzhe dobre masshtabuyutsya na zobrazhennya vishih rozdilnostej Shari ZNM roztashovani v 3 vimirah Napriklad u nabori CIFAR 10 zobrazhennya mayut rozmir lishe 32 32 3 shirina 32 visota 32 3 kanali koloru tomu odin povnoz yednanij nejron u pershomu prihovanomu shari zvichajnoyi nejronnoyi merezhi matime 32 32 3 3 072 vag Prote zobrazhennya 200 200 prizvede do nejroniv sho mayut 200 200 3 120 000 vag Takozh taki merezhevi arhitekturi ne berut do uvagi prostorovu strukturu danih rozglyadayuchi vhidni pikseli sho ye daleko odin vid odnogo takim zhe chinom yak i pikseli sho ye blizko odin vid odnogo Takim chinom povna z yednanist nejroniv dlya takih cilej yak rozpiznavannya zobrazhen u yakih perevazhayut prostorovo lokalni vhidni vizerunki ye marnotratnoyu Zgortkovi nejronni merezhi ye biologichno nathnenimi variantami bagatosharovih perceptroniv rozroblenimi dlya imitaciyi povedinki zorovoyi kori dzherelo Ci modeli pom yakshuyut vikliki postavleni arhitekturoyu BShP vikoristovuyuchi silnu prostorovo lokalnu korelyaciyu prisutnyu v prirodnih zobrazhennyah Na protivagu do BShP ZNM mayut nastupni vidmitni oznaki Trivimirni yemnosti nejroniv Shari ZNM mayut nejroni vporyadkovani v 3 vimirah shirina visota ta glibina Nejroni vseredini sharu ye z yednanimi lishe z nevelikoyu oblastyu poperednogo sharu sho nazivayetsya receptivnim polem Dlya formuvannya arhitekturi ZNM skladayut rizni tipi shariv yak lokalno tak i povnoz yednani Lokalna z yednanist vidpovidno do koncepciyi receptivnih poliv ZNM vikoristovuyut prostorovu lokalnist shlyahom zastosuvannya shemi lokalnoyi z yednanosti mizh nejronami susidnih shariv Cya arhitektura takim chinom zabezpechuye sho navcheni filtri viroblyayut najsilnishij vidguk do prostorovo lokalnogo vhidnogo obrazu Skladannya bagatoh takih shariv vede do nelinijnih filtriv sho stayut vse globalnishimi tobto chutlivimi do bilshoyi oblasti pikselnogo prostoru tak sho merezha spochatku stvoryuye predstavlennya dribnih detalej vhodu a potim z nih zbiraye predstavlennya bilshih oblastej Spilni vagi V ZNM kozhen filtr povtoryuyetsya na vsomu zorovomu poli Ci povtorni vuzli vikoristovuyut spilnu parametrizaciyu vektor vagi ta uperedzhenosti ta formuyut kartu oznaki Ce oznachaye sho vsi nejroni v zadanomu zgortkovomu shari reaguyut na odnu j tu zh samu oznaku v mezhah svogo receptivnogo polya Povtoryuvannya vuzliv takim chinom dozvolyaye oznakam buti viyavlenimi nezalezhno vid yihnogo polozhennya v zorovomu poli zabezpechuyuchi takim chinom vlastivist invariantnosti vidnosno zsuvu Razom ci vlastivosti dozvolyayut ZNM dosyagati krashogo uzagalnennya na zadachah bachennya Spilne vikoristannya vag rizko zmenshuye kilkist vilnih parametriv yakih vchitsya merezha znizhuyuchi takim chinom vimogi do pam yati dlya roboti merezhi ta umozhlivlyuyuchi trenuvannya bilshih potuzhnishih merezh Budivelni blokiCej rozdil potrebuye dodatkovih posilan na dzherela dlya polipshennya jogo perevirnosti Bud laska dopomozhit udoskonaliti cej rozdil dodavshi posilannya na nadijni avtoritetni dzherela Zvernitsya na storinku obgovorennya za poyasnennyami ta dopomozhit vipraviti nedoliki Material bez dzherel mozhe buti piddano sumnivu ta vilucheno sichen 2018 Arhitektura ZNM formuyetsya stosom riznih shariv sho peretvoryuyut yemnist vhodu na yemnist vihodu sho napriklad zberigaye rivni vidnoshennya do klasiv za dopomogoyu diferencijovnoyi funkciyi Zazvichaj zastosovuyetsya dekilka riznih tipiv shariv Mi obgovoryuyemo yih nizhche Nejroni zgortkovogo sharu sinogo z yednani z yihnim receptivnim polem chervonim Zgortkovij shar Zgortkovij shar angl convolutional layer ye osnovnim budivelnim blokom ZNM Parametri sharu skladayutsya z naboru filtriv dlya navchannya abo yader yaki mayut nevelichke receptivne pole ale prostyagayutsya na vsyu glibinu vhidnoyi yemnosti Protyagom pryamogo prohodu kozhen filtr zdijsnyuye zgortku za shirinoyu ta visotoyu vhidnoyi yemnosti obchislyuyuchi skalyarnij dobutok danih filtru ta vhodu i formuyuchi 2 vimirnu kartu zbudzhennya cogo filtru V rezultati merezha navchayetsya yaki filtri aktivuyutsya koli vona viyavlyaye pevnij konkretnij tip oznaki u pevnomu prostorovomu polozhenni u vhodi Skladannya kart zbudzhennya vsih filtriv uzdovzh vimiru glibini formuye povnu yemnist vihodu zgortkovogo sharu Takim chinom kozhen zapis v yemnosti vihodu mozhe takozh traktuvatisya yak vihid nejronu sho divitsya na nevelichku oblast u vhodi ta maye spilni parametri z nejronami tiyeyi zh karti zbudzhennya Lokalna z yednanist Pri opracyuvanni vhodiv visokoyi rozmirnosti takih yak zobrazhennya nedocilno z yednuvati nejroni z usima nejronami poperednoyi yemnosti oskilki taka arhitektura merezhi ne bere do uvagi prostorovu strukturu danih Zgortkovi merezhi vikoristovuyut prostorovo lokalnu korelyaciyu shlyahom zabezpechennya shemi lokalnoyi z yednanosti mizh nejronami susidnih shariv kozhen nejron z yednano lishe z nevelikoyu oblastyu vhidnoyi yemnosti Obshir ciyeyi z yednanosti ye giperparametrom sho nazivayetsya receptivnim polem nejronu Z yednannya ye lokalnimi v prostori vzdovzh shirini ta visoti ale zavzhdi poshiryuyutsya vzdovzh usiyeyi glibini vhidnoyi yemnosti Taka arhitektura zabezpechuye shobi navcheni filtri viroblyali najsilnishij vidguk do prostorovo lokalnih vhidnih obraziv Prostorova organizaciya Rozmir yemnosti vihodu zgortkovogo sharu kontrolyuyut tri giperparametri glibina krok ta nulove dopovnennya Glibina yemnosti vihodu kontrolyuye kilkist nejroniv sharu sho z yednuyutsya z odniyeyu j tiyeyu zh oblastyu vhidnoyi yemnosti Ci nejroni vchatsya aktivuvatisya dlya riznih oznak vhodu Napriklad yaksho pershij zgortkovij shar bere yak vhid sire zobrazhennya to rizni nejroni vzdovzh vimiru glibini mozhut aktivuvatisya v prisutnosti riznih oriyentovanih konturiv abo plyam koloru Krok kontrolyuye te yak stovpchiki glibini rozpodilyayutsya za prostorovimi vimirami shirinoyu ta visotoyu Koli krokom ye 1 mi ruhayemo filtri na odin piksel za raz Ce vede do silnogo perekrittya receptivnih poliv mizh stovpchikami a takozh do velikih yemnostej vihodu Koli mi robimo krok 2 abo ridshe 3 chi bilshe to filtri prosuvayuchis perestribuyut na 2 pikseli za raz Receptivni polya perekrivayutsya menshe j otrimuvana v rezultati yemnist vihodu maye menshi prostorovi rozmiri Inodi zruchno dopovnyuvati vhid nulyami po krayah vhidnoyi yemnosti Rozmir cogo dopovnennya ye tretim giperparametrom Dopovnennya zabezpechuye kontrol nad prostorovim rozmirom yemnosti vihodu Zokrema inodi bazhano tochno zberigati prostorovij rozmir vhidnoyi yemnosti Prostorovij rozmir yemnosti vihodu mozhe obchislyuvatisya yak funkciya vid rozmiru vhidnoyi yemnosti W displaystyle W rozmiru yadrovogo polya nejroniv zgortkovogo sharu K displaystyle K kroku z yakim voni zastosovuyutsya S displaystyle S i velichini nulovogo dopovnennya P displaystyle P sho zastosovuyetsya na krayah Formula dlya obchislennya togo skilki nejroniv umishayetsya do zadanoyi yemnosti zadayetsya yak W K 2 P S 1 displaystyle W K 2P S 1 Yaksho ce chislo ne ye cilim to kroki vstanovleno nepravilno i nejroni ne mozhe buti rozmisheno vzdovzh vhidnoyi yemnosti simetrichnim chinom Zagalom vstanovlennya nulovogo dopovnennya v P K 1 2 displaystyle P K 1 2 koli krokom ye S 1 displaystyle S 1 zabezpechuye shobi yemnosti vhodu ta vihodu mali odnakovij prostorovij rozmir Hocha vzagali vikoristannya vsih nejroniv poperednogo sharu ne ye absolyutno obov yazkovim napriklad vi mozhete virishiti vikoristovuvati lishe chastinu dopovnennya Spilne vikoristannya parametriv Shema spilnogo vikoristannya parametriv zastosovuyetsya v zgortkovih sharah dlya regulyuvannya kilkosti vilnih parametriv Vona spirayetsya na odne rozumne pripushennya yaksho klaptikova oznaka ye korisnoyu dlya obchislennya v pevnomu prostorovomu polozhenni to vona takozh povinna buti korisnoyu dlya obchislennya j v inshih polozhennyah Inshimi slovami poznachayuchi 2 vimirnij zriz za glibinoyu yak zriz glibini mi obmezhuyemo nejroni v kozhnomu zrizi glibini vikoristannyam odnih i tih zhe vag ta uperedzhenosti Oskilki vsi nejroni v odnomu zrizi podilyayut spilnu parametrizaciyu to pryamij prohid u kozhnomu zrizi glibini zgortkovogo angl CONV sharu mozhe buti obchisleno yak zgortku vag nejroniv iz vhidnoyu yemnistyu zvidsi j nazva zgortkovij shar Takim chinom ye zvichnim nazivati nabori vag filtrom abo yadrom yakij zgortayetsya iz vhodom Rezultatom ciyeyi zgortki ye karta zbudzhennya i nabir kart zbudzhennya dlya kozhnogo z riznih filtriv skladayut dokupi vzdovzh vimiru glibini dlya otrimannya yemnosti vihodu Spilne vikoristannya parametriv spriyaye invariantnosti arhitekturi ZNM vidnosno zsuvu Inodi spilne vikoristannya parametriv mozhe j ne mati sensu Osoblivo v tomu razi kodi vhidni zobrazhennya do ZNM mayut pevnu osoblivu centrovanu strukturu v yakij mi ochikuyemo zovsim riznih oznak dlya navchannya v riznih prostorovih polozhennyah Odnim iz praktichnih prikladiv ye koli vhid ye oblichchyami sho bulo vidcentrovano v zobrazhenni mi mozhemo ochikuvati sho vchitimemosya riznih osoblivih oznak ochej ta volossya v riznih chastinah zobrazhennya V takomu razi ye zvichnim pom yakshuvati shemu spilnogo vikoristannya parametriv i natomist prosto nazivati shar lokalno z yednanim Agreguvalnij shar Maksimizacijne agreguvannya angl max pooling iz filtrom 2 2 ta krokom 2 Inshim vazhlivim ponyattyam ZNM ye agreguvannya angl pooling yake ye riznovidom nelinijnogo znizhennya diskretizaciyi Isnuye dekilka nelinijnih funkcij dlya realizaciyi agreguvannya sered yakih najposhirenishoyu ye maksimizacijne agreguvannya angl max pooling Vono rozdilyaye vhidne zobrazhennya na nabir pryamokutnikiv bez perekrittiv i dlya kozhnoyi takoyi pidoblasti vivodit yiyi maksimum Ideya polyagaye v tomu sho tochne polozhennya oznaki ne tak vazhlive yak yiyi grube polozhennya vidnosno inshih oznak Agreguvalnij shar sluguye postupovomu skorochennyu prostorovogo rozmiru predstavlennya dlya zmenshennya kilkosti parametriv ta ob yemu obchislen u merezhi i vidtak takozh dlya kontrolyu perenavchannya V arhitekturi ZNM ye zvichnim periodichno vstavlyati agreguvalnij shar mizh poslidovnimi zgortkovimi sharami Operaciya agreguvannya zabezpechuye she odin riznovid invariantnosti vidnosno paralelnogo perenesennya Agreguvalnij shar diye nezalezhno na kozhen zriz glibini vhodu i zmenshuye jogo prostorovij rozmir Najposhirenishim vidom ye agreguvalnij shar iz filtrami rozmiru 2 2 sho zastosovuyutsya z krokom 2 yakij znizhuye diskretizaciyu kozhnogo zrizu glibini vhodu v 2 razi yak za shirinoyu tak i za visotoyu vidkidayuchi 75 zbudzhen V comu vipadku kozhna operaciya vzyattya maksimumu diye nad 4 chislami Rozmir za glibinoyu zalishayetsya nezminnim Na dodachu do maksimizacijnogo agreguvannya agreguvalni vuzli mozhut vikoristovuvati j inshi funkciyi taki yak userednyuvalne agreguvannya angl average pooling ta L2 normove agreguvannya angl L2 norm pooling Istorichno userednyuvalne agreguvannya zastosovuvalasya chasto ale ostannim chasom vpalo v nemilist u porivnyanni z diyeyu maksimizacijnogo agreguvannya robota yakogo na praktici viyavilasya krashoyu Cherez agresivne skorochennya rozmiru predstavlennya tendenciya jde do menshih filtriv abo vidmovi vid agreguvalnogo sharu vzagali Agreguvannya oblasti interesu do rozmiru 2 2 V comu prikladi propoziciya oblasti vhidnij parametr maye rozmir 7 5 Agreguvannya oblastej interesu angl Region of Interest pooling vidome takozh yak angl RoI pooling ce variaciya maksimizacijnogo agreguvannya v yakij rozmir vihodu fiksovano a pryamokutnik vhodu ye parametrom Agreguvannya ye vazhlivoyu skladovoyu zgortkovih nejronnih merezh dlya viyavlyannya ob yektiv sho gruntuyutsya na arhitekturi shvidkih zgortkovih nejronnih merezh na osnovi oblastej angl Fast R CNN Shar zrizanih linijnih vuzliv ReLU ReLU ye abreviaturoyu vid angl Rectified Linear Units Cej shar zastosovuye en peredavalnu funkciyu f x max 0 x displaystyle f x max 0 x Vin posilyuye nelinijni vlastivosti funkciyi uhvalennya rishennya i merezhi v cilomu ne zachipayuchi receptivnih poliv zgortkovogo sharu Dlya posilennya nelinijnosti zastosovuyutsya j inshi funkciyi napriklad nasichuvalni giperbolichnij tangens f x tanh x displaystyle f x tanh x f x tanh x displaystyle f x tanh x ta sigmoyidna funkciya f x 1 e x 1 displaystyle f x 1 e x 1 Zrizanomu linijnomu vuzlovi angl ReLU chasto viddayut perevagu pered inshimi funkciyami oskilki vin trenuye nejronnu merezhu v dekilka raziv shvidshe bez znachnoyi rozplati tochnistyu uzagalnennya Povnoz yednanij shar Nasamkinec pislya kilkoh zgortkovih ta maksimizacijno agreguvalnih shariv visokorivnevi mirkuvannya v nejronnij merezhi zdijsnyuyutsya povnoz yednanimi sharami angl fully connected layers Nejroni u povnoz yednanomu shari mayut z yednannya z usima zbudzhennyami poperednogo sharu yak ce mozhna bachiti u zvichajnih nejronnih merezhah Yihni zbudzhennya vidtak mozhe buti obchislyuvano matrichnim mnozhennyam za yakim sliduye zsuv uperedzhenosti Shar vtrat Shar vtrat viznachaye yak trenuvannya shtrafuye vidhilennya mizh peredbachenimi ta spravzhnimi mitkami i ye yak pravilo zavershalnim sharom Dlya riznih zavdan u nomu mozhut vikoristovuvati rizni funkciyi vtrat Normovani eksponencijni vtrati angl softmax zastosovuyutsya dlya peredbachennya yedinogo klasu z K vzayemno viklyuchnih klasiv Sigmoyidni perehresno entropijni vtrati zastosovuyutsya dlya peredbachennya K nezalezhnih znachen imovirnosti v promizhku 0 1 displaystyle 0 1 Evklidovi vtrati zastosovuyutsya dlya regresiyi do dijsnoznachnih mitok displaystyle infty infty Tipova arhitektura ZNMVibir giperparametrivDiv takozh Optimizaciya giperparametriv Cej rozdil potrebuye dodatkovih posilan na dzherela dlya polipshennya jogo perevirnosti Bud laska dopomozhit udoskonaliti cej rozdil dodavshi posilannya na nadijni avtoritetni dzherela Zvernitsya na storinku obgovorennya za poyasnennyami ta dopomozhit vipraviti nedoliki Material bez dzherel mozhe buti piddano sumnivu ta vilucheno sichen 2018 ZNM vikoristovuye bilshe giperparametriv nizh standartnij BShP U toj chas yak zvichajni pravila dlya tempiv navchannya ta stalih regulyarizaciyi vse she zastosovuyutsya pri optimizaciyi potribno mati na uvazi nastupne Kilkist filtriv Oskilki karta oznak z glibinoyu zmenshuyetsya shari poruch iz vhidnim sharom yak pravilo matimut menshe filtriv todi yak vishi shari mozhut mati bilshe Dlya virivnyuvannya obchislen na kozhnomu shari dobutok oznak pikselni poziciyi pidtrimuyut grubo stalim po vsih sharah Zberezhennya bilshoyi kilkosti informaciyi pro vhid vimagatime zabezpechennya shobi zagalne chislo zbudzhen kilkist vidobrazhen oznak na kilkist pikselnih polozhen ne zmenshuvalosya vid odnogo sharu do nastupnogo Kilkist kart oznak napryamu kontrolyuye yemnist i zalezhit vid kilkosti dostupnih prikladiv ta skladnosti zavdannya Forma filtriv Poshireni v literaturi formi polya filtriv silno riznyatsya i zazvichaj vibirayutsya v zalezhnosti vid naboru danih Takim chinom skladnist polyagaye v znahodzhenni pravilnogo rivnya zernistosti shobi stvoryuvati abstrakciyi u pravilnomu masshtabi dlya pevnogo naboru danih Formi maksimizacijnih agreguvan Tipovimi znachennyami ye 2 2 Duzhe veliki vhidni ob yemi mozhut vipravdovuvati na nizhchih sharah agreguvannya 4 4 Prote vibir bilshih form rizko znizhuvatime rozmirnist signalu i mozhe prizvoditi do nadmirnoyi vtrati informaciyi Chasto najkrashe pracyuyut vikna agreguvannya bez perekrivannya Metodi regulyarizaciyiDokladnishe Regulyarizaciya matematika Cej rozdil potrebuye dodatkovih posilan na dzherela dlya polipshennya jogo perevirnosti Bud laska dopomozhit udoskonaliti cej rozdil dodavshi posilannya na nadijni avtoritetni dzherela Zvernitsya na storinku obgovorennya za poyasnennyami ta dopomozhit vipraviti nedoliki Material bez dzherel mozhe buti piddano sumnivu ta vilucheno sichen 2018 Regulyarizaciya ce proces vvedennya dodatkovoyi informaciyi dlya rozv yazannya nekorektno postavlenoyi zadachi abo zapobigannya perenavchannyu ShNM vikoristovuyut rizni tipi regulyarizaciyi Empirichni Viklyuchennya Oskilki povnoz yednanij shar zajmaye najbilshe parametriv vin ye shilnim do perenavchannya Odnim z metodiv znizhennya perenavchannya ye viklyuchennya angl dropout Na kozhnomu etapi trenuvannya okremi vuzli abo viklyuchayutsya z merezhi z imovirnistyu 1 p displaystyle 1 p abo zalishayutsya z imovirnistyu p displaystyle p tak sho zalishayetsya zmenshena merezha vhidni ta vihidni rebra viklyuchenih vuzliv takozh usuvayutsya Na nastupnomu etapi na danih trenuyetsya vzhe lishe zmenshena merezha Pislya cogo usuneni vuzli povtorno vstavlyayutsya do merezhi z yihnimi pervinnimi vagami Na etapah trenuvannya jmovirnistyu togo sho prihovanij vuzol bude viklyucheno zazvichaj ye 0 5 dlya vhidnih vuzliv vona povinna buti nabagato nizhchoyu intuyitivno tomu sho pri ignoruvanni vhidnih vuzliv vidbuvayetsya bezposerednya vtrata informaciyi Pid chas perevirki pislya zavershennya trenuvannya mi v ideali hotili bi znajti vibirkove serednye vsih mozhlivih 2 n displaystyle 2 n merezh iz viklyuchennyami na zhal dlya velikih znachen n displaystyle n ce ye nezdijsnennim Tim ne menshe mi mozhemo znajti nablizhennya vikoristovuyuchi povnu merezhu v yakij vihid kozhnogo vuzla zvazheno na koeficiyent p displaystyle p tak sho matematichne ochikuvannya znachennya vihodu bud yakogo vuzla bude takim samim yak i na etapah trenuvannya Ce ye najbilshim vneskom metodu viklyuchennya hocha vin efektivno porodzhuye 2 n displaystyle 2 n nejronnih merezh i takim chinom umozhlivlyuye poyednannya modelej pid chas perevirki pereviryati neobhidno lishe odnu merezhu Unikayuchi trenuvannya vsih vuzliv na vsih trenuvalnih danih viklyuchennya znizhuye perenavchannya Cej metod takozh znachno pokrashuye shvidkist trenuvannya Ce robit poyednannya modelej praktichnim navit dlya glibokih nejronnih merezh Shozhe sho cya metodika poslablyuye vzayemodiyi mizh vuzlami veduchi yih do navchannya nadijnishih oznak sho krashe uzagalnyuyutsya na novi dani Viklyuchennya z yednan Viklyuchennya z yednan angl DropConnect ye uzagalnennyam viklyuchennya angl dropout v yakomu kozhne z yednannya a ne kozhen vuzol vihodu mozhe buti viklyucheno z imovirnistyu 1 p displaystyle 1 p Takim chinom kozhen vuzol otrimuye vhid z vipadkovoyi pidmnozhini vuzliv poperednogo sharu Viklyuchennya z yednan ye podibnim do viklyuchennya tim sho vono vvodit do modeli dinamichnu rozridzhenist ale vidriznyayetsya tim sho jmovirnist ye na vagah a ne na vektorah vihodu sharu Inshimi slovami povnoz yednanij shar z viklyuchennyam z yednan staye rozridzheno z yednanim sharom u yakomu z yednannya obirayutsya vipadkovo pid chas etapu trenuvannya Stohastichne agreguvannya Golovnim nedolikom viklyuchennya ye te sho vono ne maye takih samih perevag dlya zgortkovih shariv de nejroni ne ye povnoz yednanimi V stohastichnomu agreguvanni angl stochastic pooling zvichajni determinovani diyi agreguvannya zaminyuyutsya stohastichnoyu proceduroyu v yakij zbudzhennya v mezhah kozhnoyi oblasti agreguvannya vibirayetsya vipadkovo vidpovidno do polinomialnogo rozpodilu zadanogo zbudzhennyami v mezhah oblasti agreguvannya Cej pidhid ye vilnim vid giperparametriv i mozhe poyednuvatisya z inshimi pidhodami do regulyarizaciyi takimi yak viklyuchennya ta naroshuvannya danih Alternativnim poglyadom na stohastichne agreguvannya ye te sho vono ye rivnoznachnim standartnomu maksimizacijnomu agreguvannyu ale z bagatma kopiyami vhidnogo zobrazhennya kozhna z yakih maye neveliki lokalni deformaciyi Ce ye podibnim do yavnih elastichnih deformacij vhidnih zobrazhen yaki zabezpechuyut vidminnu produktivnist u MNIST Zastosuvannya stohastichnogo agreguvannya v bagatosharovij modeli daye eksponencijne chislo deformacij oskilki vibori u vishih sharah zalezhat vid viboriv u nizhchih Shtuchni dani Oskilki stupin perenavchannya modeli viznachayetsya yak yiyi potuzhnistyu tak i kilkistyu otrimuvanogo neyu trenuvannya zabezpechennya zgortkovoyi merezhi bilshoyu kilkistyu trenuvalnih prikladiv mozhe znizhuvati perenavchannya Oskilki ci merezhi zazvichaj trenuyut usima nayavnimi danimi odnim iz pidhodiv ye abo porodzhuvati novi dani z nulya yaksho ce mozhlivo abo zburyuvati nayavni dani dlya stvorennya novih Napriklad vhidni zobrazhennya mozhe buti asimetrichno obrizuvano na dekilka vidsotkiv dlya stvorennya novih prikladiv z takim zhe markerom yak i pervinnij Yavni Rannya zupinka Dokladnishe Rannya zupinka Odnim iz najprostishih metodiv zapobigannya perenavchannyu merezhi ye prosto zupinyati trenuvannya persh nizh perenavchannya otrimaye shans vidbutisya Takij pidhid maye toj nedolik sho proces navchannya obrivayetsya Kilkist parametriv Inshim prostim shlyahom zapobigannya perenavchannyu ye obmezhiti kilkist parametriv zazvichaj obmezhuyuchi kilkist prihovanih vuzliv u kozhnomu shari abo obmezhuyuchi glibinu merezhi Dlya zgortkovih merezh na kilkist parametriv vplivaye j rozmir filtru Obmezhuvannya kilkosti parametriv bezposeredno obmezhuye peredbachuvalnu potuzhnist merezhi znizhuyuchi skladnist funkciyi yaku vona mozhe vikonuvati na danih i vidtak obmezhuye rozmir perenavchannya Ce ye rivnoznachnim en Oslablennya vag Prostim vidom dodanogo regulyarizatora ye oslablennya vag angl weight decay yake prosto dodaye do pohibki kozhnogo vuzla dodatkovu pohibku proporcijnu sumi vag norma L1 abo kvadratovi velichini norma L2 vektora vag Riven prijnyatnoyi skladnosti modeli mozhe buti znizheno zbilshennyam staloyi proporcijnosti sho tim samim zbilshuye shtraf za veliki vektori vag L2 regulyarizaciya angl L2 regularization ye najposhirenishim vidom regulyarizaciyi Yiyi mozhe buti realizovano shtrafuvannyam kvadratnogo stupenya vsih parametriv bezposeredno v cili L2 regulyarizaciya maye intuyitivnu interpretaciyu v silnomu shtrafuvanni pikovih vagovih vektoriv ta viddavanni perevagi rozsiyanim vagovim vektoram U zv yazku z bagatokratnimi vzayemodiyami mizh vagami ta vhodami ce maye korisnu vlastivist zaohochennya merezhi vikoristovuvati vsi yiyi vhodi potrohu zamist silnogo vikoristannya lishe deyakih iz nih L1 regulyarizaciya angl L1 regularization ye inshim poshirenim vidom Mozhlivo poyednuvati L1 ta L2 regulyarizaciyi ce nazivayetsya en angl elastic net regularization L1 regulyarizaciya vede vagovi vektori do nabuttya rozridzhenosti protyagom optimizaciyi Inshimi slovami nejroni z L1 regulyarizaciyeyu zakinchuyut vikoristannyam lishe rozridzhenoyi pidmnozhini yihnih najvazhlivishih vhodiv i stayut majzhe invariantnimi vidnosno zashumlenih vhodiv Obmezhennya maksimumu normi Inshim vidom regulyarizaciyi ye nav yazuvannya absolyutnoyi verhnoyi mezhi velichini vagovogo vektora dlya kozhnogo nejronu i zastosuvannya en dlya zabezpechennya cogo obmezhennya Na praktici ce vidpovidaye vikonannyu utochnennya parametriv yak zavzhdi a potim zabezpechennyu obmezhennya zatisnennyam vagovogo vektora w displaystyle vec w kozhnogo nejrona shobi vin zadovolnyav w 2 lt c displaystyle vec w 2 lt c Tipovi znachennya c displaystyle c ye poryadku 3 abo 4 Deyaki praci povidomlyayut pro polipshennya pri zastosuvanni cogo vidu regulyarizaciyi Iyerarhichni koordinatni sitkiAgreguvannya prizvodit do vtrat tochnih prostorovih vzayemovidnoshen mizh visokorivnevimi chastinami takimi yak nis ta rot u zobrazhenni oblichchya A ci vzayemovidnoshennya potribni dlya rozpiznavannya osobi Zberigati cyu informaciyu dopomagaye perekrivannya agreguvan take sho kozhna oznaka traplyayetsya v dekilkoh agreguvannyah Same lishe paralelne perenesennya ne mozhe ekstrapolyuvati rozuminnya geometrichnih vzayemovidnoshen na dokorinno novu tochku oglyadu taku yak insha oriyentaciya abo inshij masshtab Z inshogo boku lyudi ye duzhe vpravnimi v ekstrapolyaciyi pobachivshi novu figuru odin raz voni mozhut rozpiznati yiyi z inshoyi tochki oglyadu Narazi poshirenim sposobom podolannya ciyeyi problemi ye trenuvannya merezhi na peretvorenih danih v riznih oriyentaciyah masshtabah osvitlenni tosho shobi merezha mogla vporuvatisya z cimi variaciyami Dlya velikih naboriv ce ye obchislyuvalno napruzhenim Alternativoyu ye zastosuvannya iyerarhiyi koordinatnih sitok angl coordinate frames ta vikoristannya grupi nejroniv dlya predstavlennya zv yazku formi figuri ta yiyi polozhennya vidnosno sitkivki Polozhennya vidnosno sitkivki ye vzayemovidnoshennyam mizh koordinatnoyu sitkoyu sitkivki ta vlasnoyu koordinatnoyu sitkoyu oznaki Takim chinom odnim zi sposobiv predstavlennya chogos ye vbudovuvannya koordinatnoyi sitki u ce Shojno ce zrobleno veliki oznaki mozhut rozpiznavatisya zastosuvannyam uzgodzhenosti polozhen yihnih chastin napriklad polozhennya nosa ta rota roblyat uzgodzhene peredbachennya polozhennya vsogo oblichchya Zastosuvannya cogo garantuye prisutnist sutnosti vishogo rivnya napriklad oblichchya yaksho nizhchij riven napriklad nis ta rot maye uzgodzhenist peredbachennya yiyi polozhennya Vektori nejronnoyi aktivnosti sho predstavlyayut polozhennya vektori polozhennya angl pose vectors umozhlivlyuyut modelyuvannya prostorovih peretvoren cherez linijni operaciyi sho sproshuye merezhi navchannya iyerarhiyi vizualnih sutnostej ta uzagalnennya za tochkami oglyadu Ce ye podibnim do togo yak lyudskij zorovij analizator nakladaye koordinatni sitki dlya predstavlennya figur ZastosuvannyaRozpiznavannya zobrazhen ZNM chasto zastosovuyut u sistemah rozpiznavannya zobrazhen 2012 roku bulo povidomleno pro 0 23 vidsotkovij en na bazi danih MNIST She odna pracya pro zastosuvannya ZNM dlya klasifikaciyi zobrazhen povidomila sho proces navchannya buv na divo shvidkim u tij samij praci bulo dosyagnuto najkrashih iz opublikovanih na 2011 rik rezultativ na bazah danih MNIST ta NORB ZNM dosyagli velikogo znizhennya rivnya pohibki pri zastosuvanni do rozpiznavannya oblich Insha pracya povidomila pro 97 6 vidsotkovij riven rozpiznavannya na 5 600 neruhomih zobrazhennyah ponad 10 sub yektiv ZNM vikoristovuvali dlya ocinki yakosti video ob yektivnim chinom pislya trenuvannya vruchnu otrimana v rezultati sistema mala duzhe nizku en en angl ImageNet Large Scale Visual Recognition Challenge ye etalonom u klasifikaciyi ta viyavlenni ob yektiv z miljonami zobrazhen ta sotnyami klasiv ob yektiv V ILSVRC 2014 velikomasshtabnim zmaganni z vizualnogo rozpiznavannya majzhe kozhna komanda yaka dosyagla visokogo rivnya vikoristovuvala ZNM yak svoyu osnovnu shemu Peremozhec GoogLeNet osnova DeepDream zbilshiv ochikuvanu serednyu vluchnist viyavlennya ob yektiv do 0 439329 i zniziv pohibku klasifikaciyi do 0 06656 najkrashogo rezultatu na toj moment Jogo merezha zastosovuvala ponad 30 shariv Cya produktivnist zgortkovih nejronnih merezh u zavdannyah ImageNet bula blizkoyu do lyudskoyi Najkrashi algoritmi vse she b yutsya z ob yektami sho ye malenkimi abo tonkimi takimi yak malenkij muraha na stebli kvitki abo osoba sho trimaye pero v ruci Voni takozh mayut problemi iz zobrazhennyami sho bulo spotvoreno filtrami vse poshirenishim yavishem iz suchasnimi cifrovimi kamerami Na protivagu taki tipi zobrazhen ridko viklikayut utrudnennya v lyudej Lyudi prote shilni mati problemi z inshimi pitannyami Napriklad voni ne duzhe vpravni v klasifikuvanni ob yektiv na tonki kategoriyi taki yak okremi porodi sobak abo vidi ptahiv u toj chas yak dlya zgortkovih nejronnih merezh ce legka zadacha 2015 roku bagatosharova ZNM prodemonstruvala zdatnist z konkurentospromozhnoyu produktivnistyu pomichati oblichchya z velikogo diapazonu kutiv vklyuchno iz perevernutimi navit chastkovo zakritimi Cya merezha trenuvalasya na bazi danih iz 200 000 zobrazhen sho vklyuchali oblichchya pid riznimi kutami ta v riznih oriyentaciyah i she 20 miljoniv zobrazhen bez oblich Voni vikoristovuvali paketi zi 128 zobrazhen u 50 000 iteracij Analiz video U porivnyanni z galuzyami danih zobrazhen roboti iz zastosuvannya ZNM do klasifikaciyi video ye vidnosno malo Video ye skladnishim za zobrazhennya oskilki vono maye she odin chasovij vimir Tim ne menshe deyaki rozshirennya ZNM v oblast video bulo doslidzheno Odnim iz pidhodiv ye traktuvati prostir ta chas yak rivnocinni vimiri vhodu ta vikonuvati zgortku yak za chasom tak i za prostorom Inshim pidhodom ye zlittya oznak dvoh zgortkovih nejronnih merezh odniyeyi dlya prostorovogo ta odniyeyi dlya chasovogo potokiv Bulo predstavleno shemi spontannogo navchannya dlya trenuvannya prostorovo chasovih oznak na osnovi zgortkovih ventilnih obmezhenih mashin Bolcmana angl Convolutional Gated Restricted Boltzmann Machine ta metodu nezalezhnih pidprostoriv angl Independent Subspace Analysis Obrobka prirodnoyi movi ZNM takozh rozviduvali j obrobku prirodnoyi movi Modeli ZNM ye efektivnimi dlya riznih zadach OPM i voni dosyagali vidminnih rezultativ u semantichnomu rozbori otrimanni rezultativ poshukovih zapitiv modelyuvanni rechen klasifikaciyi peredbachenni ta inshih tradicijnih zadachah OPM Poshuk novih likiv ZNM zastosovuvalisya v en Peredbachennya vzayemodiyi mizh molekulami ta biologichnimi bilkami mozhe identifikuvati potencijni liki 2015 roku Atomwise predstavila AtomNet pershu nejronnu merezhu glibokogo navchannya dlya racionalnogo konstruyuvannya likiv na osnovi strukturi Cya sistema trenuyetsya bezposeredno na 3 vimirnih predstavlennyah himichnih vzayemodij Podibno do togo yak merezha rozpiznavannya zobrazhen navchayetsya skladati menshi prostorovo blizki oznaki u bilshi skladni strukturi AtomNet vidkrivaye novi himichni oznaki taki yak aromatichnist sp3 vugleci ta vodneve zv yazuvannya Zgodom AtomNet bulo vikoristano dlya peredbachennya novitnih kandidatur biomolekul dlya cilej chislennih hvorob peredusim dlya likuvannya virusu Ebola ta rozsiyanogo sklerozu Shashki ZNM vikoristovuvali u gri v shashki U 1999 2001 rokah en ta Chellapilla opublikuvali praci sho pokazali yak zgortkova nejronna merezha mozhe navchitisya grati v shashki zastosovuyuchi kovevolyuciyu Proces navchannya ne vikoristovuvav poperednih profesijnih igor lyudej a natomist zoseredzhuvavsya na minimalnomu nabori informaciyi sho mistivsya na shahivnici polozhenni ta tipovi figur ta riznici v ocinci partij Vreshti resht cyu programu en bulo perevireno na 165 igrah proti gravciv i vona uvijshla do najvishih 0 4 Vona takozh zdobula peremogu nad programoyu Chinook na yiyi rivni gri ekspert Go ZNM zastosovuvalisya v komp yuternim go U grudni 2014 roku Klark ta Storki opublikuvali pracyu yaka pokazala sho ZNM trenovana kerovanim navchannyam z bazi danih lyudskih profesijnih igor mozhe perevershuvati GNU Go ta vigravati deyaki igri proti Fuego 1 1 derevnogo poshuku Monte Karlo za lishe chastku chasu potribnogo Fuego dlya gri Zgodom bulo ogolosheno sho velika 12 sharova zgortkova nejronna merezha pravilno peredbachila profesijnij hid u 55 polozhen zrivnyavshi tochnist iz en lyudskih gravciv Koli trenovana zgortkova merezha zastosovuvalasya bezposeredno dlya gri u go bez zhodnogo poshuku vona poborola tradicijnu poshukovu programu GNU Go v 97 igor i dosyagla rivnya produktivnosti programi derevnogo poshuku Monte Karlo Fuego yaka imituye desyat tisyach rozigrashiv blizko miljona pozicij za hid AlphaGo persha programa yaka pobila najkrashogo na toj moment gravcya lyudinu zastosovuvala paru ZNM dlya viboru hodiv dlya probi merezha strategiyi angl policy network ta dlya ocinki pozicij merezha znachennya angl value network sho pracyuvala na DPMK Tonke nalashtuvannyaDlya bagatoh zastosuvan trenuvalnih danih dostupno malo A zgortkovi nejronni merezhi zazvichaj vimagayut velikoyi kilkosti trenuvalnih danih shobi zapobigati perenavchannyu Poshirenoyu metodikoyu ye trenuvati merezhu na shirshomu nabori danih z pov yazanoyi oblasti viznachennya Shojno parametri merezhi zijshlisya vikonuyetsya dodatkovij etap trenuvannya iz zastosuvannyam danih z oblasti viznachennya dlya tonkogo nalashtuvannya vag merezhi Ce dozvolyaye zgortkovim merezham uspishno zastosovuvatisya do zadach z nevelikimi trenuvalnimi naborami RozshirennyaGliboki Q merezhi Gliboka Q merezha angl deep Q network DQN ce takij tip glibokoyi modeli navchannya yakij poyednuye ZNM iz Q navchannyam riznovidom navchannya z pidkriplennyam Na vidminu vid poperednih agentiv navchannya z pidkriplennyam DQN mozhe navchatisya bezposeredno z senso rnih vhodiv visokoyi rozmirnosti Poperedni rezultati bulo predstavleno 2014 roku a suprovidnij dokument u lyutomu 2015 roku Ce doslidzhennya opisuvalo zastosuvannya do gri v igri Atari 2600 Jomu pereduvali inshi modeli glibokogo navchannya z pidkriplennyam Gliboki merezhi perekonan Dokladnishe Gliboka merezha perekonan Zgortkovi gliboki merezhi perekonan ZGMP angl convolutional deep belief networks CDBN mayut strukturu duzhe podibnu do zgortkovih nejronnih merezh i trenuyutsya podibno do glibokih merezh perekonan Takim chinom voni vikoristovuyut dvovimirnu strukturu zobrazhen yak ce roblyat ZNM i koristayutsya poperednim trenuvannyam yak gliboki merezhi perekonan Voni zabezpechuyut zagalnu strukturu yaku mozhlivo vikoristovuvati v bagatoh zadachah obrobki zobrazhen ta signalu Iz zastosuvannyam ZGMP bulo otrimano zrazkovi rezultati na standartnih bazah danih zobrazhen takih yak CIFAR Nejronni merezhi z chasovoyu zatrimkoyu Nejronna merezha z chasovoyu zatrimkoyu dozvolyaye signalam movlennya buti obroblyuvanimi invariantno vidnosno chasu analogichno do invariantnosti vidnosno paralelnogo perenesennya sho proponuyut ZNM Yih bulo predstavleno na pochatku 1980 h rokiv Zamoshuvannya vihodiv nejroniv mozhe pokrivati chasovi periodi Poshireni bibliotekiCaffe Populyarna biblioteka dlya zgortkovih nejronnih merezh Stvorena Centrom bachennya i navchannya Berkli angl Berkeley Vision and Learning Center BVLC Vona pidtrimuye yak CP tak i GP Rozroblena movoyu C i maye obgortki dlya Python ta MATLAB Deeplearning4j Gliboke navchannya movami Java ta Scala na Spark yakij maye bagato GP shnu pidtrimku Biblioteka glibokogo navchannya 30 bereznya 2016 u Wayback Machine zagalnogo priznachennya dlya steku rozrobki JVM sho pracyuye na rushiyi naukovih obchislen movoyu C 11 chervnya 2018 u Wayback Machine Dozvolyaye stvoryuvati vlasni shari Poyednuyetsya z Hadoop ta Kafka deeplearning hs 8 grudnya 2015 u Wayback Machine Gliboke navchannya dlya Haskell pidtrimuye obchislennya z CUDA MatConvNet 3 lyutogo 2016 u Wayback Machine Zruchne vtilennya dlya MATLAB MXNet 18 serpnya 2017 u Wayback Machine Vidkrita sistema glibokogo navchannya sho ye masshtabovanoyu vklyuchno z pidtrimkoyu dekilkoh GP ta CP dlya rozpodilu Vona pidtrimuye interfejsi dekilkoma movami C Python Julia Matlab JavaScript Go R Scala Perl Wolfram neon 1 lyutogo 2016 u Wayback Machine Najshvidsha 25 sichnya 2016 u Wayback Machine sistema dlya zgortkovih nejronnih merezh ta glibokogo navchannya z pidtrimkoyu pidsistem CP ta GP Perednij kraj ye movoyu Python todi yak shvidki yadra pishutsya osoblivim shejdernim asemblerom Stvorena kompaniyeyu Nervana Systems yaku bulo pridbano kompaniyeyu Intel TensorFlow 26 sichnya 2016 u Wayback Machine Licenzovana za Apache 2 0 Theano podibna biblioteka z pidtrimkoyu CP GP vlasnickogo TP Google mobilnih Theano Etalonna biblioteka glibokogo navchannya dlya Python z PPI znachnoyu miroyu sumisnim z populyarnoyu bibliotekoyu NumPy Dozvolyaye koristuvacham pisati simvolichni matematichni virazi potim avtomatichno porodzhuye yihni pohidni vberigayuchi koristuvacha vid obov yazku koduvati gradiyenti abo zvorotne poshirennya Ci simvolichni virazi avtomatichno kompilyuyutsya v CUDA dlya otrimannya shvidkoyi realizaciyi na GP Torch www torch ch 9 lipnya 2016 u Wayback Machine Sistema naukovih obchislen z shirokoyu pidtrimkoyu algoritmiv mashinnogo navchannya napisana movami C ta Lua Osnovnim avtorom ye Ronan Kollober angl Ronan Collobert i yiyi zaraz zastosovuyut u Facebook AI Research ta Twitter Microsoft Cognitive Toolkit Instrumentarij glibokogo navchannya napisanij Microsoft iz deyakimi unikalnimi vlastivostyami sho pidvishuyut masshtabovanist nad dekilkoma vuzlami Vin pidtrimuye povnocinni interfejsi dlya trenuvannya v C ta Python i z dodatkovoyu pidtrimkoyu dlya vivedennya modelej u C ta Java Poshireni PPIKeras Visokorivnevij PPI napisanij movoyu Python dlya zgortkovih nejronnih merezh TensorFlow ta Theano U populyarnij kulturiZgortkovi nejronni merezhi zgaduyutsya v romani 2017 roku Infinity Born Div takozhGliboke navchannya Zgortka matematichnij analiz Zorovij procesor Nejronauka Nejronna merezha z chasovoyu zatrimkoyu Neokognitron Masshtaboinvariantne oznakove peretvorennya Uvaga mashinne navchannya PrimitkiLeCun Yann Arhiv originalu za 24 lyutogo 2021 Procitovano 16 listopada 2013 angl Zhang Wei 1988 Proceedings of annual conference of the Japan Society of Applied Physics Arhiv originalu za 6 lyutogo 2017 angl Zhang Wei 1990 Applied Optics 29 32 4790 7 Bibcode 1990ApOpt 29 4790Z doi 10 1364 AO 29 004790 PMID 20577468 Arhiv originalu za 6 lyutogo 2017 angl Matusugu Masakazu Katsuhiko Mori Yusuke Mitari Yuji Kaneda 2003 PDF Neural Networks 16 5 555 559 doi 10 1016 S0893 6080 03 00115 1 Arhiv originalu PDF za 13 grudnya 2013 Procitovano 17 listopada 2013 angl van den Oord Aaron Dieleman Sander Schrauwen Benjamin 1 sichnya 2013 Burges C J C Bottou L Welling M Ghahramani Z Weinberger K Q red PDF Curran Associates Inc s 2643 2651 Arhiv originalu PDF za 16 travnya 2017 Procitovano 19 sichnya 2016 angl Collobert Ronan Weston Jason 1 sichnya 2008 A Unified Architecture for Natural Language Processing Deep Neural Networks with Multitask Learning Proceedings of the 25th International Conference on Machine Learning ICML 08 New York NY USA ACM 160 167 doi 10 1145 1390156 1390177 ISBN 978 1 60558 205 4 angl DeepLearning 0 1 LISA Lab Arhiv originalu za 28 grudnya 2017 Procitovano 31 serpnya 2013 angl Habibi Aghdam Hamed Guide to convolutional neural networks a practical application to traffic sign detection and classification Heravi Elnaz Jahani Cham Switzerland ISBN 9783319575490 OCLC 987790957 angl Ciresan Dan Ueli Meier Jonathan Masci Luca M Gambardella Jurgen Schmidhuber 2011 PDF Proceedings of the Twenty Second international joint conference on Artificial Intelligence Volume Volume Two 2 1237 1242 Arhiv originalu PDF za 16 listopada 2013 Procitovano 17 listopada 2013 angl Krizhevsky Alex PDF Arhiv originalu PDF za 12 travnya 2013 Procitovano 17 listopada 2013 angl Ciresan Dan Meier Ueli Schmidhuber Jurgen June 2012 PDF 2012 en New York NY Institute of Electrical and Electronics Engineers IEEE 3642 3649 arXiv 1202 2745v1 doi 10 1109 CVPR 2012 6248110 ISBN 978 1 4673 1226 4 OCLC 812295155 Arhiv originalu PDF za 7 bereznya 2016 Procitovano 9 grudnya 2013 angl Hubel D H Wiesel T N 1 bereznya 1968 Receptive fields and functional architecture of monkey striate cortex The Journal of Physiology 195 1 215 243 doi 10 1113 jphysiol 1968 sp008455 ISSN 0022 3751 PMC 1557912 PMID 4966457 angl LeCun Yann Bengio Yoshua Hinton Geoffrey 2015 Deep learning Nature 521 7553 436 444 Bibcode 2015Natur 521 436L doi 10 1038 nature14539 PMID 26017442 angl Fukushima Kunihiko 1980 PDF Biological Cybernetics 36 4 193 202 doi 10 1007 BF00344251 PMID 7370364 Arhiv originalu PDF za 3 chervnya 2014 Procitovano 16 listopada 2013 angl David E Rumelhart Geoffrey E Hinton Ronald J Wiliams 1986 Chapter 8 Learning Internal Representations by ErrorPropagation U Rumelhart David E McClelland James L red Parallel Distributed Processing Volume 1 MIT Press s 319 362 ISBN 9780262680530 angl Homma Toshiteru Les Atlas Robert Marks II 1988 PDF Advances in Neural Information Processing Systems 1 31 40 Arhiv originalu PDF za 28 bereznya 2016 Procitovano 19 sichnya 2016 angl LeCun Yann Leon Bottou Yoshua Bengio Patrick Haffner 1998 PDF Proceedings of the IEEE 86 11 2278 2324 doi 10 1109 5 726791 Arhiv originalu PDF za 3 lipnya 2021 Procitovano 7 zhovtnya 2016 angl S Behnke Hierarchical Neural Networks for Image Interpretation volume 2766 of Lecture Notes in Computer Science Springer 2003 angl Simard Patrice David Steinkraus and John C Platt Best Practices for Convolutional Neural Networks Applied to Visual Document Analysis In ICDAR vol 3 pp 958 962 2003 angl Slyusar V I 2021 PDF IV Mizhnarodna naukovo praktichna konferenciya Integraciya informacijnih sistem i intelektualnih tehnologij v umovah transformaciyi informacijnogo suspilstva sho prisvyachena 50 ij richnici kafedri informacijnih sistem ta tehnologij 21 22 zhovtnya 2021 r Poltava Poltavskij derzhavnij agrarnij universitet 114 119 doi 10 32782 978 966 289 562 9 Arhiv originalu PDF za 2 listopada 2021 Procitovano 30 zhovtnya 2021 Zhang Wei 1991 Proceedings of the International Joint Conference on Neural Networks Arhiv originalu za 6 lyutogo 2017 angl Zhang Wei 1991 Applied Optics 30 29 4211 7 Bibcode 1991ApOpt 30 4211Z doi 10 1364 AO 30 004211 PMID 20706526 Arhiv originalu za 6 lyutogo 2017 angl Zhang Wei 1994 Medical Physics 21 4 517 24 Bibcode 1994MedPh 21 517Z doi 10 1118 1 597177 PMID 8058017 Arhiv originalu za 6 lyutogo 2017 angl Daniel Graupe Ruey Wen Liu George S Moschytz Applications of neural networks to medical signal processing In Proc 27th IEEE Decision and Control Conf pp 343 347 1988 angl Daniel Graupe Boris Vern G Gruener Aaron Field and Qiu Huang Decomposition of surface EMG signals into single fiber action potentials by means of neural network Proc IEEE International Symp on Circuits and Systems pp 1008 1011 1989 angl Qiu Huang Daniel Graupe Yi Fang Huang Ruey Wen Liu Identification of firing patterns of neuronal signals In Proc 28th IEEE Decision and Control Conf pp 266 271 1989 angl Behnke Sven 2003 PDF Lecture Notes in Computer Science T 2766 Springer doi 10 1007 b11963 ISBN 978 3 540 40722 5 Arhiv originalu PDF za 10 serpnya 2017 Procitovano 21 sichnya 2018 angl Dave Steinkraus Patrice Simard Ian Buck 2005 Using GPUs for Machine Learning Algorithms s 1115 1119 Arhiv originalu za 15 bereznya 2016 Procitovano 9 lipnya 2016 angl Kumar Chellapilla Sid Puri Patrice Simard 2006 High Performance Convolutional Neural Networks for Document Processing U Lorette Guy red Suvisoft Arhiv originalu za 18 travnya 2020 Procitovano 9 lipnya 2016 angl Hinton GE Osindero S Teh YW Jul 2006 A fast learning algorithm for deep belief nets Neural computation 18 7 1527 54 doi 10 1162 neco 2006 18 7 1527 PMID 16764513 angl Bengio Yoshua Lamblin Pascal Popovici Dan Larochelle Hugo 2007 Greedy Layer Wise Training of Deep Networks Advances in Neural Information Processing Systems 153 160 angl Ranzato MarcAurelio Poultney Christopher Chopra Sumit LeCun Yann 2007 PDF Advances in Neural Information Processing Systems Arhiv originalu PDF za 22 bereznya 2016 Procitovano 19 sichnya 2016 angl 10 Deng Jia et al Imagenet A large scale hierarchical image database Computer Vision and Pattern Recognition 2009 CVPR 2009 IEEE Conference on IEEE 2009 angl cs231n github io Arhiv originalu za 23 zhovtnya 2019 Procitovano 25 kvitnya 2017 angl Scherer Dominik Muller Andreas C Behnke Sven 2010 PDF Artificial Neural Networks ICANN 20th International Conference on Thessaloniki Greece Springer s 92 101 Arhiv originalu PDF za 3 kvitnya 2018 Procitovano 21 sichnya 2018 angl Graham Benjamin 18 grudnya 2014 Fractional Max Pooling arXiv 1412 6071 cs CV angl Springenberg Jost Tobias Dosovitskiy Alexey Brox Thomas Riedmiller Martin 21 grudnya 2014 Striving for Simplicity The All Convolutional Net arXiv 1412 6806 cs LG angl Grel Tomasz 28 lyutogo 2017 deepsense io angl Arhiv originalu za 2 chervnya 2017 angl Girshick Ross 27 veresnya 2017 Fast R CNN arXiv 1504 08083 cs CV angl Krizhevsky A Sutskever I Hinton G E 2012 Advances in Neural Information Processing Systems 1 1097 1105 Arhiv originalu za 16 lyutogo 2015 Procitovano 19 sichnya 2016 angl Srivastava Nitish C Geoffrey Hinton Alex Krizhevsky Ilya Sutskever Ruslan Salakhutdinov 2014 PDF Journal of Machine Learning Research 15 1 1929 1958 Arhiv originalu PDF za 19 sichnya 2016 Procitovano 19 sichnya 2016 angl Carlos E Perez Arhiv originalu za 3 chervnya 2017 Procitovano 24 bereznya 2022 angl jmlr org Arhiv originalu za 4 bereznya 2016 Procitovano 17 grudnya 2015 angl Zeiler Matthew D Fergus Rob 15 sichnya 2013 Stochastic Pooling for Regularization of Deep Convolutional Neural Networks arXiv 1301 3557 cs LG angl research microsoft com Arhiv originalu za 22 grudnya 2015 Procitovano 17 grudnya 2015 angl Hinton Geoffrey E Srivastava Nitish Krizhevsky Alex Sutskever Ilya Salakhutdinov Ruslan R 2012 Improving neural networks by preventing co adaptation of feature detectors arXiv 1207 0580 cs NE angl jmlr org Arhiv originalu za 5 grudnya 2019 Procitovano 17 grudnya 2015 angl Hinton Geoffrey 1979 Some demonstrations of the effects of structural descriptions in mental imagery Cognitive Science 3 3 231 250 doi 10 1016 s0364 0213 79 80008 7 angl Rock Irvin The frame of reference The legacy of Solomon Asch Essays in cognition and social psychology 1990 243 268 angl J Hinton Coursera lectures on Neural Networks 2012 Url https www coursera org learn neural networks 31 grudnya 2016 u Wayback Machine angl Lawrence Steve C Lee Giles Ah Chung Tsoi Andrew D Back 1997 Face Recognition A Convolutional Neural Network Approach Neural Networks IEEE Transactions on 8 1 98 113 CiteSeerX 10 1 1 92 5813 doi 10 1109 72 554195 angl Le Callet Patrick Christian Viard Gaudin Dominique Barba 2006 PDF IEEE Transactions on Neural Networks 17 5 1316 1327 doi 10 1109 TNN 2006 879766 PMID 17001990 Arhiv originalu PDF za 23 lyutogo 2014 Procitovano 17 listopada 2013 angl Arhiv originalu za 5 lyutogo 2016 Procitovano 30 sichnya 2016 angl Szegedy Christian Liu Wei Jia Yangqing Sermanet Pierre Reed Scott Anguelov Dragomir Erhan Dumitru Vanhoucke Vincent Rabinovich Andrew 2014 Going Deeper with Convolutions Computing Research Repository arXiv 1409 4842 angl Russakovsky Olga Deng Jia Su Hao Krause Jonathan Satheesh Sanjeev Ma Sean Huang Zhiheng Karpathy Andrej Khosla Aditya Bernstein Michael Berg Alexander C Fei Fei Li 2014 Image Net Large Scale Visual Recognition Challenge arXiv 1409 0575 cs CV angl Technology Review 16 lyutogo 2015 Arhiv originalu za 27 listopada 2015 Procitovano 27 zhovtnya 2017 angl Baccouche Moez Mamalet Franck Wolf Christian Garcia Christophe Baskurt Atilla 16 listopada 2011 Sequential Deep Learning for Human Action Recognition U Salah Albert Ali Lepri Bruno red Lecture Notes in Computer Science T 7065 Springer Berlin Heidelberg s 29 39 doi 10 1007 978 3 642 25446 8 4 ISBN 978 3 642 25445 1 Arhiv originalu za 21 sichnya 2018 Procitovano 21 sichnya 2018 angl Ji Shuiwang Xu Wei Yang Ming Yu Kai 1 sichnya 2013 3D Convolutional Neural Networks for Human Action Recognition IEEE Transactions on Pattern Analysis and Machine Intelligence 35 1 221 231 doi 10 1109 TPAMI 2012 59 ISSN 0162 8828 PMID 22392705 angl Karpathy Andrej et al Large scale video classification with convolutional neural networks IEEE Conference on Computer Vision and Pattern Recognition CVPR 2014 angl Simonyan Karen Zisserman Andrew 2014 Two Stream Convolutional Networks for Action Recognition in Videos arXiv 1406 2199 cs CV angl Taylor Graham W Fergus Rob LeCun Yann Bregler Christoph 1 sichnya 2010 PDF Proceedings of the 11th European Conference on Computer Vision Part VI ECCV 10 Berlin Heidelberg Springer Verlag 140 153 ISBN 3 642 15566 9 Arhiv originalu PDF za 5 lyutogo 2016 Procitovano 19 sichnya 2016 angl Le Q V Zou W Y Yeung S Y Ng A Y 1 sichnya 2011 PDF Proceedings of the 2011 IEEE Conference on Computer Vision and Pattern Recognition CVPR 11 Washington DC USA IEEE Computer Society 3361 3368 doi 10 1109 CVPR 2011 5995496 ISBN 978 1 4577 0394 2 Arhiv originalu PDF za 23 grudnya 2015 Procitovano 19 sichnya 2016 angl Grefenstette Edward Blunsom Phil de Freitas Nando Hermann Karl Moritz 29 kvitnya 2014 A Deep Architecture for Semantic Parsing arXiv 1404 7296 cs CL angl research microsoft com Arhiv originalu za 18 chervnya 2016 Procitovano 17 grudnya 2015 angl Kalchbrenner Nal Grefenstette Edward Blunsom Phil 8 kvitnya 2014 A Convolutional Neural Network for Modelling Sentences arXiv 1404 2188 cs CL angl Kim Yoon 25 serpnya 2014 Convolutional Neural Networks for Sentence Classification arXiv 1408 5882 cs CL angl Collobert Ronan and Jason Weston A unified architecture for natural language processing Deep neural networks with multitask learning Proceedings of the 25th international conference on Machine learning ACM 2008 angl Collobert Ronan Weston Jason Bottou Leon Karlen Michael Kavukcuoglu Koray Kuksa Pavel 2 bereznya 2011 Natural Language Processing almost from Scratch arXiv 1103 0398 cs LG angl Wallach Izhar Dzamba Michael Heifets Abraham 9 zhovtnya 2015 AtomNet A Deep Convolutional Neural Network for Bioactivity Prediction in Structure based Drug Discovery arXiv 1510 02855 cs LG angl Yosinski Jason Clune Jeff Nguyen Anh Fuchs Thomas Lipson Hod 22 chervnya 2015 Understanding Neural Networks Through Deep Visualization arXiv 1506 06579 cs CV angl The Globe and Mail Arhiv originalu za 20 zhovtnya 2015 Procitovano 9 listopada 2015 angl KQED Future of You en us Arhiv originalu za 24 grudnya 2015 Procitovano 9 listopada 2015 angl Chellapilla K Fogel DB 1999 Evolving neural networks to play checkers without relying on expert knowledge IEEE Trans Neural Netw 10 6 1382 91 doi 10 1109 72 809083 PMID 18252639 angl http ieeexplore ieee org document 942536 17 chervnya 2018 u Wayback Machine angl 2001 Blondie24 Playing at the Edge of AI San Francisco CA Morgan Kaufmann ASIN 1558607838 ISBN 1558607838 a href wiki D0 A8 D0 B0 D0 B1 D0 BB D0 BE D0 BD Cite book title Shablon Cite book cite book a Perevirte znachennya asin dovidka angl angl Clark Christopher Storkey Amos 2014 Teaching Deep Convolutional Neural Networks to Play Go arXiv 1412 3409 cs AI angl Maddison Chris J Huang Aja Sutskever Ilya Silver David 2014 Move Evaluation in Go Using Deep Convolutional Neural Networks arXiv 1412 6564 cs LG angl Arhiv originalu za 30 sichnya 2016 Procitovano 30 sichnya 2016 angl Durjoy Sen Maitra Ujjwal Bhattacharya S K Parui CNN based common approach to handwritten character recognition of multiple scripts 28 lipnya 2020 u Wayback Machine in Document Analysis and Recognition ICDAR 2015 13th International Conference on vol no pp 1021 1025 23 26 Aug 2015 angl Mnih Volodymyr ta in 2015 Human level control through deep reinforcement learning Nature 518 7540 529 533 Bibcode 2015Natur 518 529M doi 10 1038 nature14236 PMID 25719670 angl Sun R Sessions C June 2000 IEEE Transactions on Systems Man and Cybernetics Part B Cybernetics 30 3 403 418 doi 10 1109 3477 846230 ISSN 1083 4419 Arhiv originalu za 22 serpnya 2017 Procitovano 21 sichnya 2018 angl Lee Honglak Grosse Roger Ranganath Rajesh Ng Andrew Y 1 sichnya 2009 Convolutional Deep Belief Networks for Scalable Unsupervised Learning of Hierarchical Representations Proceedings of the 26th Annual International Conference on Machine Learning ICML 09 ACM 609 616 doi 10 1145 1553374 1553453 ISBN 9781605585161 cherez ACM Digital Library angl PDF Arhiv originalu PDF za 30 serpnya 2017 Procitovano 21 sichnya 2018 angl en et al Phoneme Recognition Using Time Delay Neural Networks IEEE Transactions on Acoustics Speech and Signal Processing Volume 37 No 3 pp 328 339 March 1989 angl Cade Metz 18 travnya 2016 Wired Arhiv originalu za 13 sichnya 2018 Procitovano 21 sichnya 2018 angl keras io angl Arhiv originalu za 17 sichnya 2020 Procitovano 21 sichnya 2018 angl Richards Douglas E 30 kvitnya 2017 English Paragon Press ISBN 1546406395 Arhiv originalu za 18 listopada 2020 Procitovano 21 sichnya 2018 angl Posilannyaconvnet benchmarks 25 sichnya 2016 u Wayback Machine prostij porivnyalnij analiz usih vidkritih realizacij zgortkovih merezh iz rezultatami angl legkij posibnik pro te yak pracyuyut zgortkovi nejronni merezhi angl CS231n Convolutional Neural Networks for Visual Recognition 20 sichnya 2018 u Wayback Machine stendfordskij kurs z informatiki Andriya Karpati angl Andrej Karpathy angl An Intuitive Explanation of Convolutional Neural Networks 21 sichnya 2018 u Wayback Machine vvedennya pochatkovogo rivnya do togo chim zgortkovi nejronni merezhi ye i yak voni pracyuyut angl Convolutional Neural Networks for Image Classification 21 sichnya 2018 u Wayback Machine oglyad literaturi