Перцептро́н, або персептро́н (англ. perceptron від лат. perceptio — сприйняття; нім. perzeptron) — математична або комп'ютерна модель сприйняття інформації мозком (кібернетична модель мозку), запропонована Френком Розенблатом в 1957 році й реалізована у вигляді електронної машини [ru] у. 1960 році. Перцептрон став однією з перших моделей нейромереж, а «Марк-1» — першим у світі нейрокомп'ютером. Незважаючи на свою простоту, перцептрон здатен навчатися і розв'язувати досить складні завдання. Основна математична задача, з якою він здатний впоратися — це лінійне розділення довільних нелінійних множин, так зване забезпечення лінійної сепарабельності.
Перцептрон складається з трьох типів елементів, а саме: сигнали, що надходять від давачів, передаються до асоціативних елементів, а відтак до реагуючих. Таким чином, перцептрони дозволяють створити набір «асоціацій» між вхідними стимулами та необхідною на виході. В біологічному плані це відповідає перетворенню, наприклад, зорової інформації у рухових нейронів. Відповідно до сучасної термінології, перцептрони може бути класифіковано як штучні нейронні мережі:
- з одним прихованим шаром;
- з (пороговою передавальною функцією);
- з прямим розповсюдженням сигналу.
На тлі зростання популярності нейронних мереж у 1969 році вийшла книга Марвіна Мінського та Сеймура Пейперта, що показала принципові обмеження перцептронів. Це призвело до зміщення інтересу дослідників штучного інтелекту в протилежну від нейромереж область символьних обчислень. Крім того, через складність математичного аналізу перцептронів, а також відсутність загальноприйнятої термінології, виникли різні неточності і помилки.
Згодом інтерес до нейромереж, і зокрема, робіт Розенблата, поновився. Так, наприклад, зараз стрімко розвивається біокомп'ютинг, що у своїй теоретичній основі обчислень, зокрема, базується на нейронних мережах, а перцептрон відтворюють на базі бактеріородопсинмісних плівок.
Поява перцептрона
У 1943 році в своїй статті «Логічне числення ідей, що стосуються нервової активності»Воррен Маккалох і [en] запропонували поняття штучної нейронної мережі. Зокрема, ними було запропоновано модель штучного нейрону. Дональд Гебб в роботі «Організація поведінки»1949 року описав основні принципи навчання нейронів.
Ці ідеї кілька років пізніше розвинув американський нейрофізіолог Френк Розенблат. Він запропонував схему пристрою, що моделює процес людського сприйняття, і назвав його «перцептроном». Перцептрон передавав сигнали від фотоелементів, що являють собою сенсорне поле, в блоки електромеханічних елементів пам'яті. Ці комірки з'єднувалися між собою випадковим чином відповідно до принципів конекціонізму. 1957 року в [en] було успішно завершено моделювання роботи перцептрона на комп'ютері IBM 704, а двома роками пізніше, 23 червня 1960 року в Корнельському університеті, було продемонстровано перший нейрокомп'ютер — «Марк-1», що був здатен розпізнавати деякі з літер англійського алфавіту.
Щоби «навчити» перцептрон класифікувати образи, було розроблено спеціальний ітераційний метод навчання проб і помилок, що нагадує процес навчання людини — метод корекції помилки. Крім того, при розпізнанні тієї чи іншої літери перцептрон міг виділяти характерні особливості літери, що статистично зустрічаються частіше, ніж незначні відмінності в індивідуальних випадках. Таким чином, перцептрон був здатен узагальнювати літери, написані по-різному (різним почерком), в один узагальнений образ. Проте можливості перцептрона були обмеженими: машина не могла надійно розпізнавати частково закриті літери, а також літери іншого розміру, розташовані зі зсувом або поворотом відносно тих, що використовувалися на етапі її навчання.
Звіт про перші результати з'явився ще 1958 року — тоді Розенблат було опубліковано статтю «Перцептрон: Ймовірна модель зберігання та організації інформації в головному мозку». Але докладніше свої теорії та припущення щодо процесів сприйняття і перцептронів він описує 1962 року в книзі «Принципи нейродинаміки: Перцептрони та теорія механізмів мозку». У книзі він розглядає не лише вже готові моделі перцептрону з одним прихованим шаром, але й багатошарових перцептронів з [ru] (третій розділ) і [ru] (четвертий розділ) зв'язками. В книзі також вводиться ряд важливих ідей та теорем, наприклад, доводиться теорема збіжності перцептрону.
Опис елементарного перцептрона
Елементарний перцептрон складається з елементів трьох типів: S-елементів, A-елементів та одного R-елементу. S-елементи — це шар сенсорів, або рецепторів. У фізичному втіленні вони відповідають, наприклад, світлочутливим клітинам сітківки ока або фоторезисторам матриці камери. Кожен рецептор може перебувати в одному з двох станів — спокою або збудження, і лише в останньому випадку він передає одиничний сигнал до наступний шару, асоціативним елементам.
A-елементи називаються асоціативними, тому що кожному такому елементові, як правило, відповідає цілий набір (асоціація) S-елементів. A-елемент активізується, щойно кількість сигналів від S-елементів на його вході перевищує певну величину θ.
Сигнали від збуджених A-елементів, своєю чергою, передаються до суматора R, причому сигнал від i-го асоціативного елемента передається з коефіцієнтом . Цей коефіцієнт називається вагою A-R зв'язку.
Так само як і A-елементи, R-елемент підраховує суму значень вхідних сигналів, помножених на ваги (лінійну форму). R-елемент, а разом з ним і елементарний перцептрон, видає «1», якщо лінійна форма перевищує поріг θ, інакше на виході буде «-1». Математично, функцію, що реалізує R-елемент, можна записати так:
Навчання елементарного перцептрона полягає у зміні вагових коефіцієнтів зв'язків A-R. Ваги зв'язків S-A (які можуть приймати значення (-1; 0; 1)) і значення порогів A-елементів вибираються випадковим чином на самому початку і потім не змінюються. (Опис алгоритму див. нижче.)
Після навчання перцептрон готовий працювати в режимі розпізнавання або узагальнення. У цьому режимі перцептрону пред'являються раніше невідомі йому об'єкти, й він повинен встановити, до якого класу вони належать. Робота перцептрона полягає в наступному: при пред'явленні об'єкта, збуджені A-елементи передають сигнал R-елементу, що дорівнює сумі відповідних коефіцієнтів . Якщо ця сума позитивна, то ухвалюється рішення, що даний об'єкт належить до першого класу, а якщо вона негативна — то до другого.
Основні поняття теорії перцептронів
Серйозне ознайомлення з теорією перцептронів вимагає знання базових визначень і теорем, сукупність яких і являє собою базову основу для всіх наступних видів штучних нейронних мереж. Але, як мінімум, необхідно розуміння хоча б з точки зору теорії сигналів, що є оригінальним, тобто описане автором перцептрону Ф. Розенблатом.
Опис на основі сигналів
Для початку визначмо складові елементи перцептрона, які є частковими випадками штучного нейрону з (пороговою функцією передачі).
- Простим S-елементом (сенсорним) є чутливий елемент, який від дії будь-якого з видів енергії (наприклад, світла, звуку, тиску, тепла тощо) виробляє сигнал. Якщо вхідний сигнал перевищує певний поріг θ, на виході елемента отримуємо +1, в іншому випадку — 0.
- Простим A-елементом (асоціативним) називається логічний елемент, який дає вихідний сигнал +1, коли алгебраїчна сума його вхідних сигналів дорівнює або перевищує деяку граничну величину θ (кажуть, що елемент Активний), в іншому випадку вихід дорівнює нулю.
- Простим R-елементом (таким, що реагує, тобто діє) називається елемент, який видає сигнал +1, якщо сума його вхідних сигналів є суворо додатною, і сигнал −1, якщо сума його вхідних сигналів є суворо від'ємною. Якщо сума вхідних сигналів дорівнює нулю, вихід вважається або рівним нулю, або невизначеним.
Якщо на виході будь-якого елемента ми отримуємо 1, то кажуть, що елемент активний або збуджений.
Всі розглянуті елементи називаються простими, тому що вони реалізують стрибкоподібні функції. Розенблат стверджував, що для розв'язання складніших завдань можуть знадобитися інші види функцій, наприклад, лінійна.
В результаті Розенблат ввів такі визначення:
- Перцептрон являє собою мережу, що складається з S-, A- та R-елементів, зі змінною матрицею взаємодії W (елементи якої — вагові коефіцієнти), що визначається послідовністю минулих станів активності мережі.
- Перцептроном з послідовними зв'язками називається система, в якій всі зв'язки, що починаються від елементів з логічною відстанню d від найближчого S-елементу, закінчуються на елементах з логічною відстанню d+1 від найближчого S-елементу.
- Простим перцептроном називається будь-яка система, що задовольняє наступні п'ять умов:
- в системі є лише один R-елемент (природно, він пов'язаний з усіма A-елементами);
- система являє собою перцептрон з послідовними зв'язками, що йдуть лише від S-елементів до A-елементів, та від A-елементів до R-елементів;
- ваги всіх зв'язків від S-елементів до A-елементів (S-A зв'язків) незмінні;
- час передачі кожного зв'язку дорівнює або нулю, або сталій величині ;
- всі функції активації S-, A-, R-елементів мають вигляд , де — алгебраїчна сума всіх сигналів, що надходять одночасно на вхід елемента
- Елементарним перцептроном називається простий перцептрон, у якоговсі елементи — прості. У цьому випадку його функція активації має вигляд .
Додатково можна вказати на такі концепції, запропоновані в книзі, та пізніше розвинені в рамках теорії нейронних мереж:
- [ru] — це система, в якій існують зв'язки між елементами одного типу (S, A або R), що знаходяться на однаковій відстані від S-елементів, причому всі інші зв'язки — послідовного типу.
- [ru] — це система, в якій існує хоча б один зв'язок від логічно віддаленішого елемента до менш віддаленого. Згідно сучасної термінології такі мережі називаються рекурентними нейронними мережами.
- [ru] — це система, в якій знято обмеження на фіксованість зв'язків від S-елементів до A-елементів. Доведено, що шляхом оптимізації S-A зв'язків можна досягти значного поліпшення характеристик перцептрона.
Опис на основі предикатів
Детальніші відомості з цієї теми ви можете знайти в статті [ru].
Марвін Мінський вивчав властивості паралельних обчислень, окремим випадком яких на той час був перцептрон. Для аналізу його властивостей йому довелося перекласти теорію перцептронів на мову предикатів. Суть підходу полягала в наступному:
- множині сигналів від S-елементів було поставлено у відповідність змінну X;
- кожному A-елементові поставлено у відповідність предикат φ(X) (фі від ікс), названий частинним предикатом;
- кожному R-елементові поставлено у відповідність предикат ψ (псі), що залежить від частинних предикатів;
- нарешті, перцептроном було названо пристрій, здатний обчислювати всі предикати типу ψ.
В «зоровому» перцептроні змінна X символізувала образ будь-якої геометричної фігури (стимул). Частинний предикат дозволяв кожному А-елементові «розпізнавати» свою фігуру. Предикат ψ означав ситуацію, коли лінійна комбінація ( — коефіцієнти передачі) перевищувала певний поріг θ.
Науковці виділили 5 класів перцептронів, що володіють, на їхню думку, цікавими властивостями:
- Перцептрони, обмежені за діаметром — кожна фігура X, що розпізнається частинними предикатами, не перевищує за діаметром деяку фіксовану величину.
- Перцептрони обмеженого порядку — кожен частинний предикат залежить від обмеженої кількості точок з X.
- Перцептрони Гамба — кожен частинний предикат повинен бути лінійною пороговою функцією, тобто міні-перцептроном.
- Випадкові перцептрони — перцептрони обмеженого порядку, коли частинні предикати являють собою випадково вибрані булеві функції. В книзі зазначається, що саме цю модель найдокладніше досліджувала група Розенблата.
- Обмежені перцептрони — множина частинних предикатів нескінченна, а множина можливих значень коефіцієнтів скінченна.
Хоча такий математичний апарат дозволив застосувати цей аналіз лише до елементарного перцептрону Розенблата, він розкрив багато принципових обмежень для паралельних обчислень, які має кожен вид сучасних штучних нейронних мереж.
Історична класифікація
Поняття перцептрона має цікаву, але незавидну історію. В результаті нерозвиненої термінології нейронних мереж минулих років, різкої критики та нерозуміння завдань дослідження перцептронів, а іноді й помилкового освітлення пресою, початковий сенс цього поняття було викривлено. Порівнюючи розробки Розенблата та сучасні огляди й статті, можна виділити 4 доволі відособлених класи перцептронів:
- Перцептрон з одним прихованим шаром
- Це класичний перцептрон, що йому присвячено більшу частина книги Розенблата, і що розглядається в цій статті: у нього є по одному шару S-, A- та R-елементів.
- Одношаровий перцептрон
- Це модель, у якій вхідні елементи безпосередньо з'єднано з вихідними за допомогою системи ваг. Є найпростішою мережею прямого поширення — лінійним класифікатором, і окремим випадком класичного перцептрона, в якому кожен S-елемент однозначно відповідає одному A-елементові, S-A зв'язку мають вагу +1, і всі A-елементи мають поріг θ = 1. Одношарові перцептрони фактично є формальними нейронами, тобто пороговими елементами Мак-Каллока — Піттса. Вони мають безліч обмежень, зокрема, вони не можуть ідентифікувати ситуацію, коли на їхні входи подано різні сигнали («завдання XOR», див нижче).
- Багатошаровий перцептрон Розенблатта
- Це перцептрон, в якому присутні додаткові шари A-елементів. Його аналіз провів Розенблат у третій частині своєї книги.
- Багатошаровий перцептрон Румельхарта
- Це перцептрон, в якому присутні додаткові шари A-елементів, причому навчання такої мережі проводиться за методом зворотного поширення помилки, і навчаються всі шари перцептрону (включно з S-A). Є окремим випадком багатошарового перцептрону Розенблата.
В даний час в літературі під терміном «перцептрон» найчастіше розуміють одношаровий перцептрон (англ. single-layer_perceptron), причому існує поширена омана, що саме цей найпростіший тип моделей запропонував Розенблат. На противагу одношаровому, ставлять «багатошаровий перцептрон» (англ. multilayer perceptron), знову ж таки, найчастіше маючи на увазі багатошаровий перцептрон Румельхарта, а не Розенблата. Класичний перцептрон у такій дихотомії відносять до багатошарових.
Алгоритми навчання
Важливою властивістю будь-якої нейронної мережі є здатність до навчання. Процес навчання є процедурою налаштування ваг та порогів з метою зменшення різниці між бажаними (цільовими) та отримуваними векторами на виході. У своїй книзі Розенблат намагався класифікувати різні алгоритми навчання перцептрону, називаючи їх системами підкріплення.
- Система підкріплення — це будь-який набір правил, на підставі яких можна змінювати з плином часу матрицю взаємодії (або стан пам'яті) перцептрону.
Описуючи ці системи підкріплення і уточнюючи можливі їхні види, Розенблат ґрунтувався на ідеях Д. Гебба про навчання, запропонованих ним 1949 року, які можна перефразувати в наступне правило, яке складається з двох частин:
- Якщо два нейрони з обох боків синапсу (з'єднання) активізуються одночасно (тобто синхронно), то міцність цього з'єднання зростає.
- Якщо два нейрони з обох боків синапсу активізуються асинхронно, то такий синапс послаблюється або взагалі відмирає.
Кероване навчання
Класичний метод навчання перцептрону — це метод корекції помилки. Він являє собою такий вид керованого навчання, при якому вага зв'язку не змінюється до тих пір, поки поточна реакція перцептрона залишається правильною. При появі неправильної реакції вага змінюється на одиницю, а знак (+/-) визначається протилежним від знаку помилки.
Припустимо, ми хочемо навчити перцептрон розділяти два класи об'єктів так, щоби при пред'явленні об'єктів першого класу вихід перцептрона був позитивний (+1), а при пред'явленні об'єктів другого класу — негативним (-1). Для цього виконаємо наступний алгоритм:
- Випадково вибираємо пороги для A-елементів та встановлюємо зв'язки S-A (далі вони не змінюватимуться).
- Початкові коефіцієнти вважаємо рівними нулеві.
- Пред'являємо навчальну вибірку: об'єкти (наприклад, кола або квадрати) із зазначенням класу, до якого вони належать.
- Показуємо перцептронові об'єкт першого класу. При цьому деякі A-елементи збудяться. Коефіцієнти , що відповідають цим збудженням елементів, збільшуємо на 1.
- Пред'являємо об'єкт другого класу, і коефіцієнти тих А-елементів, які збудилися при цьому показі, зменшуємо на 1.
- Обидві частини кроку 3 виконаємо для всієї навчальної вибірки. В результаті навчання сформуються значення вагів зв'язків .
Теорема збіжності перцептрону, описана і доведена Ф. Розенблатом (за участю Блока, Джозефа, Кеста та інших дослідників, які працювали разом з ним), показує, що елементарний перцептрон, навчений за таким алгоритмом, незалежно від початкового стану вагових коефіцієнтів і послідовності появи стимулів завжди приведе до досягнення рішення за скінченний проміжок часу.
Некероване навчання
Крім класичного методу навчання перцептрону, Розенблат також ввів поняття про некероване навчання, запропонувавши наступний спосіб навчання:
- Альфа-система підкріплення — це система підкріплення, за якої ваги всіх активних зв'язків , що ведуть до елемента , змінюються на однакову величину r, а ваги неактивних зв'язків за цей час не змінюються.
Пізніше, з розробкою поняття багатошарового перцептрону, альфа-систему було модифіковано, і її стали називати дельта-правилом. Модифікацію було проведено з метою зробити функцію навчання диференційовною (наприклад, сигмоїдною), що в свою чергу потрібно для застосування методу градієнтного спуску, завдяки якому можливе навчання більше ніж одного шару.
Метод зворотного поширення помилки
Для навчання багатошарових мереж ряд учених, у тому числі [en], було запропоновано градієнтний алгоритм керованого навчання, що проводить сигнал помилки, обчислений виходами перцептрона, до його входів, шар за шаром. Зараз це є найпопулярніший метод навчання багатошарових перцептронів. Його перевага в тому, що він може навчити всі шари нейронної мережі, і його легко прорахувати локально. Однак цей метод є дуже довгим, до того ж, для його застосування потрібно, щоб передавальна функція нейронів була диференційовною. При цьому в перцептронах довелося відмовитися від бінарного сигналу, і користуватися на вході неперервними значеннями.
Традиційні помилки
В результаті популяризації штучних нейронних мереж журналістами та маркетологами було допущено ряд неточностей, які, при недостатньому вивченні оригінальних робіт з цієї тематики, неправильно тлумачилися молодими (на той час) науковцями. В результаті до сьогодні можна зустрітися з недостатньо глибоким трактуванням функціональних можливостей перцептрона у порівнянні з іншими нейронними мережами, розробленими в наступні роки.
Термінологічні неточності
Найпоширенішою помилкою, пов'язаною з термінологією, є визначення перцептрона як нейронної мережі без прихованих шарів (одношарового перцептрона, див. вище). Ця помилка пов'язана з недостатньо проробленою термінологією в галузі нейромереж на ранньому етапі їхньої розробки. Ф. Уоссерменом було зроблено спробу певним чином класифікувати різні види нейронних мереж:
Як видно з публікацій, немає загальноприйнятого способу підрахунку кількості шарів в мережі. Багатошарова мережа складається з множин нейронів і ваг, що чергуються. Вхідний шар не виконує підсумовування. Ці нейрони слугують лише як розгалуження для першої множини ваг, і не впливають на обчислювальні можливості мережі. З цієї причини перший шар не беруть до уваги при підрахунку шарів, і мережа вважається двошаровою, оскільки лише два шари виконують обчислення. Далі, ваги шару вважаються пов'язаними з наступними за ними нейронами. Отже, шар складається з множини ваг з наступними за ними нейронами, що підсумовують зважені сигнали.
В результаті такого подання перцептрон потрапив під визначення «одношарова нейронна мережа». Частково це вірно, тому що в нього немає прихованих шарів нейронів, які навчаються (ваги яких адаптуються до задачі). І тому всю сукупність фіксованих зв'язків системи з S- до A-елементів, можна логічно замінити набором (модифікованих за жорстким правилом) нових вхідних сигналів, що надходять відразу на А-елементи (усунувши тим самим взагалі перший шар зв'язків). Але тут як раз не враховують те, що така модифікація перетворює нелінійне подання завдання в лінійне.
Тому просте ігнорування шарів із фіксованими зв'язками що не навчаються (в елементарному перцептроні це S-A зв'язки) призводить до неправильних висновків про можливості нейромережі. Так, Мінський вчинив дуже коректно, переформулювавши А-елемент як предикат (тобто функцію); навпаки, Уоссермен вже втратив таке подання і у нього А-елемент — просто вхід (майже еквівалентний S-елементу). За такої термінологічної плутанини не береться до уваги той факт, що в перцептроні відбувається відображення рецепторного поля S-елементів на асоціативне поле А-елементів, в результаті чого й відбувається перетворення будь-якої лінійно нероздільної задачі на лінійно роздільну.
Функціональні помилки
Більшість функціональних помилок зводяться до нібито неможливості вирішення перцептроном нелінійно роздільної задачі. Але варіацій на цю тему досить багато, нижче розглянуто головні з них.
Завдання XOR
Перцептрон не здатен розв'язати «задачу XOR».
- Дуже поширена й найнесерйозніша заява. На ілюстрації праворуч зображено розв'язання цієї задачі перцептроном. Ця помилка виникає, по-перше, через те, що неправильно інтерпретують визначення перцептрона, даного Мінським (див. вище), а саме, предикати відразу прирівнюють до входів, хоча предикат у Мінського — це функція, що ідентифікує цілий набір вхідних значень. По-друге, через те, що класичний перцептрон Розенблата плутають з одношаровим перцептроном (через термінологічні неточності, описані вище).
Слід звернути увагу на те, що «одношаровий перцептрон» у сучасній термінології та «одношаровий перцептрон» в термінології Уоссермена є різними об'єктами. І об'єкт, що зображено на ілюстрації, в термінології Уоссермена є двошаровим перцептроном.
Доцільно зазначити, що при реалізації одношарового персептрону можна використати нелінійні функції класифікації. Це розширює його функціональні можливості, не змінюючи структуру. Такий підхід дозволяє зняти частину функціональних обмежень, зокрема, реалізувати логічну функцію XOR.
Здатність до навчання розв'язання лінійно нероздільних задач
Вибором випадкових ваг можна досягти навчання розв'язання лінійно нероздільних (взагалі, будь-яких) задач, але тільки якщо пощастить, і в нових змінних (виходах A-нейронів) задача виявиться лінійно роздільною. Проте може й не пощастити.
- Теорема збіжності перцептрону доводить, що немає і не може бути ніякого «може і не пощастити»; при рівності А-елементів кількості стимулів і не особливій [ru] — імовірність рішення дорівнює 100 %. Тобто при відображенні рецепторного поля на асоціативне поле, розмірності більшої на одну, випадковим (нелінійним) оператором, нелінійна задача перетворюється на лінійно роздільну. А наступний шар, що навчається, вже знаходить лінійний розв'язок в іншому просторі входів.
- Наприклад, навчання перцептрона для розв'язання «задачі XOR» (див. ілюстрацію) проводиться наступними етапами:
Ваги | Ітерації | ||||||||
---|---|---|---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | |||||
w1 | 0 | 1 | 1 | 1 | 1 | 2 | 2 | 2 | 2 |
w2 | 0 | 0 | 1 | 1 | 1 | 1 | 1 | 2 | 2 |
w3 | −1 | 0 | 1 | 0 | −1 | 0 | −1 | 0 | −1 |
Вхідні сигнали (x, y) | 1, 1 | 0, 1 | 1, 0 | 1, 1 | 1, 1 | 0, 1 | 1, 1 | 1, 0 | 1, 1 |
Здатність до навчання на малій кількості прикладів
Якщо в задачі розмірність входів досить висока, а навчальних прикладів мало, то в такому «слабо заповненому» просторі кількість успіхів може і не виявитися малою. Це свідчить лише про часткову придатність перцептрону, а не про його універсальність.
- Цей аргумент легко перевірити на тестовій задачі під назвою «шахівниця» або «губка з водою»:
Дано ланцюжок з 2·Nодиниць або нулів, що паралельно надходять на входи перцептрону. Якщо цей ланцюжок є дзеркально симетричним відносно центру, то на виході буде 1, інакше — 0. Навчальні приклади — всі (це важливо) ланцюжків.
- Можуть бути варіації даної задачі, наприклад:
Візьмімо чорно-біле зображення розміром 256 × 256 елементів (пікселів). Вхідними даними для перцептрона будуть координати точки (8 біт + 8 біт, разом потрібно 16 S-елементів), на виході вимагатимемо отримати колір точки. Навчаємо перцептрон усім точкам (всьому зображенню). В результаті маємо 65 536 різних пар «стимул-реакція». Навчити без помилок.
- Якщо цей аргумент справедливий, то перцептрон не зможе ні за яких умов навчитися, не роблячи жодної помилки. Інакше перцептрон не помилиться жодного разу.
- На практиці виявляється, що дана задача є дуже простою для перцептрону: щоб її розв'язати, перцептронові достатньо 1 500 А-елементів (замість повних 65 536, необхідних для будь-якої задачі). При цьому кількість ітерацій є порядку 1 000. При 1 000 А-елементах перцептрон не сходиться за 10 000 ітерацій. Якщо ж збільшити кількість А-елементів до 40 000, то сходження можна чекати за 30-80 ітерацій.
- Такий аргумент з'являється через те, що дану задачу плутають із задачею Мінського «про предикат „парність“».
Стабілізація ваг та збіжність
У перцептроні Розенблата стільки А-елементів, скільки входів. І збіжність за Розенблатом — це стабілізація ваг.
- У Розенблата читаємо:
Якщо кількість стимулів у просторі W дорівнює n > N (тобто більше кількості А-елементів елементарного перцептрону), то існує деяка класифікація С(W), для якої розв'язку не існує.
- Звідси випливає, що:
- у Розенблата кількість А-елементів дорівнює кількості стимулів (навчальних прикладів), а не кількості входів;
- збіжність за Розенблатом — це не стабілізація ваг, а наявність всіх необхідних класифікацій, тобто по суті відсутність помилок.
Експоненційне зростання кількості прихованих елементів
Якщо вагові коефіцієнти до елементів прихованого шару (А-елементів) фіксовано, то необхідно, щоби кількість елементів прихованого шару (або їхня складність) експоненційно зростала зі зростанням розмірності задачі (кількості рецепторів). Відтак, втрачається їхня основна перевага — здатність розв'язувати задачі довільної складності за допомогою простих елементів.
- Розенблатом було показано, що кількість А-елементів залежить лише від кількості стимулів, які треба розпізнати (див. попередній пункт або теорему збіжності перцептрону). Таким чином, якщо кількість А-елементів є фіксованою, то можливість перцептрону до розв'язання задач довільної складності безпосередньо не залежить від зростання кількості рецепторів.
- Така помилка походить від наступної фрази Мінського:
При дослідженні предикату «парність» ми бачили, що коефіцієнти можуть зростати зі зростанням |R| (кількості точок на зображенні) експоненційно.
- Крім того, Мінський досліджував і інші предикати, наприклад, «рівність». Але всі ці предикати є достатньо специфічними задачами на узагальнення, а не на розпізнавання або прогнозування. Так, наприклад, щоби перцептрон міг виконувати предикат «парність» — він повинен сказати, парна чи ні кількість чорних точок на чорно-білому зображенні, а для виконання предикату «рівність» — сказати, рівна чи ні права частина зображення лівій. Ясно, що такі задачі виходять за рамки задач розпізнавання та прогнозування, і являють собою задачі на узагальнення або просто на підрахунок певних характеристик. Це і було переконливо показано Мінським, і є обмеженням не лише перцептронів, але й усіх паралельних алгоритмів, які не здатні швидше за послідовні алгоритми обчислити такі предикати.
- Тому такі завдання обмежують можливості всіх нейронних мереж і перцептронів зокрема, але це ніяк не пов'язано з фіксованими зв'язками першого шару; тому що, по-перше, мова йшла про величину коефіцієнтів зв'язків другого шару, а по-друге, питання лише в ефективності, а не в принциповій можливості. Тобто, перцептрон можна навчити і цієї задачі, але обсяг пам'яті та швидкість навчання будуть більшими, ніж при застосуванні простого послідовного алгоритму. Введення ж у першому шарі вагових коефіцієнтів, що навчаються, лише погіршить стан справ, бо вимагатиме більшого часу навчання, оскільки перемінні зв'язки між S та A швидше перешкоджають, ніж сприяють процесові навчання. Причому, при підготовці перцептрону до задачі розпізнавання стимулів особливого типу, для збереження ефективності знадобляться особливі умови стохастичного навчання, що було показано Розенблатом в експериментах із [ru].
Можливості та обмеження моделі
Детальніші відомості з цієї теми ви можете знайти в статті [ru].
Можливості моделі
Сам Розенблат розглядав перцептрон перш за все як наступний важливий крок у дослідженні та використанні нейронних мереж, а не як завершений варіант «машини, здатної мислити». Ще в передмові до своєї книги він, відповідаючи на критику, відзначав, що «програма з дослідження перцептрона пов'язана головним чином не з винаходом пристроїв, що володіють „штучним інтелектом“, а з вивченням фізичних структур і нейродинамічних принципів».
Розенблат запропонував ряд психологічних тестів для визначення можливостей нейромереж: експерименти з розрізнення, узагальнення, розпізнавання послідовностей, утворення абстрактних понять, формування та властивостей «самосвідомості», творчості, уяви та інші. Деякі з цих експериментів далекі від сучасних можливостей перцептронів, тому їхній розвиток відбувається більше філософськи, в межах напряму конекціонізму. Тим не менше, для перцептронів встановлено два важливих факти, що знаходять застосування у практичних задачах: можливість класифікації (об'єктів) і можливість апроксимації (класів і функцій).
Важливою властивістю перцептроів є їхня здатність до навчання, причому за рахунок досить простого й ефективного алгоритму (див. вище). Останнім часом дослідники починають звертати увагу саме на оригінальну версію перцептрона, оскільки навчання багатошарового перцептрона за допомогою методу зворотного поширення помилки виявило істотні обмеження на швидкість навчання. Спроби навчати багатошаровий перцептрон методом зворотного поширення помилок призводять до експоненційного зростання обчислювальних витрат. Якщо ж користуватися методом прямого поширення, то обчислювальна складність алгоритму навчання стає лінійною. Це дозволяє зняти проблему навчання нейронних мереж із дуже великою кількістю входів та виходів, а також мати довільну кількість шарів мережі перцептронів. Поняття про зняття прокляття розмірності можна прочитати у праці Іванова А. І «Підсвідомість штучного інтелекту: програмування автоматів нейромережевої біометрії мовою їх навчання».
Обмеження моделі
Детальніші відомості з цієї теми ви можете знайти в статті [en].
Сам Розенблат виділив два фундаментальні обмеження для тришарових перцептронів (що складаються з одного S-шару, одного A-шару та R-шару): відсутність у них здатності до узагальнення своїх характеристик на нові стимули або нові ситуації, а також нездатність аналізувати складні ситуації у зовнішньому середовищі шляхом розчленування їх на простіші.
В 1969 році Марвін Мінський та Сеймур Пейперт опублікували книгу «Перцептрони», де математично показали, що перцептрони, подібні до розенблатівських, принципово не в змозі виконувати багато з тих функцій, які хотіли б отримати від перцептронів. До того ж, у той час теорія паралельних обчислень була слабко розвиненою, а перцептрон повністю відповідав принципам таких обчислень. За великим рахунком, Мінський показав перевагу послідовних обчислень перед паралельними в певних класах задач, пов'язаних з інваріантні представленням. Його критику можна розділити на три теми:
- Перцептрони мають обмеження в задачах, пов'язаних з інваріантним представленням образів, тобто незалежним від їхнього положення на сенсорному полі та положення щодо інших фігур. Такі задачі виникають, наприклад, якщо нам потрібно побудувати машину для читання друкованих літер або цифр так, щоб ця машина могла розпізнавати їх незалежно від положення на сторінці (тобто щоб на рішення машини не впливали перенесення, обертання, розтяг-стиск символів); або якщо нам потрібно визначити зі скількох частин складається фігура; або чи знаходяться дві фігури поруч чи ні. Мінським було доведено, що цей тип задач неможливо повноцінно розв'язати за допомогою паралельних обчислень, у тому числі — перцептрону.
- Перцептрони не мають функціонального переваги над аналітичними методами (наприклад, статистичними) в задачах, пов'язаних із прогнозуванням. Тим не менше, в деяких випадках вони представляють простіший і продуктивніший метод аналізу даних.
- Було показано, що деякі задачі в принципі може бути розв'язано перцептроном, але вони можуть вимагати нереально великого часу або нереально великої оперативної пам'яті.
Книга Мінського і Паперті істотно вплинула на розвиток науки про штучний інтелект, тому що змістила науковий інтерес та субсидії урядових організацій США на інший напрямок досліджень — символьний підхід у ШІ.
Застосування перцептронів
Перцептрон може бути використано, наприклад, для апроксимації функцій, для задачі прогнозування (й еквівалентної їй задачі розпізнавання образів), що вимагає високої точності, та задачі керування агентами, що вимагає високої швидкості навчання.
У практичних задачах від перцептрона вимагатиметься можливість вибору більш ніж з двох варіантів, а отже, на виході в нього має бути більше одного R-елемента. Як показано Розенблатом, характеристики таких систем не відрізняються суттєво від характеристик елементарного перцептрона.
Апроксимація функцій
Теорема Цибенка, доведена Джорджем Цибенком 1989 року, стверджує, що штучна нейронна мережа прямого поширення з одним прихованим шаром може апроксимувати будь-яку неперервну функцію багатьох змінних з будь-якою точністю. Умовами є достатня кількість нейронів прихованого шару, вдалий підбір і , де
- — ваги між вхідними нейронами і нейронами прихованого шару
- — ваги між зв'язками від нейронів прихованого шару і вихідним нейроном
- — коефіцієнт «упередженості» для нейронів прихованого шару.
Прогнозування та розпізнавання образів
У цих завданнях перцептронові потрібно встановити приналежність об'єкта до якогось класу за його параметрами (наприклад, за зовнішнім виглядом, формою, силуету). Причому точність розпізнавання багато в чому залежатиме від представлення вихідних реакцій перцептрону. Тут можливі три типи кодування: конфігураційне, позиційне та гібридне. Позиційне кодування, за якого кожному класові відповідає свій R-елемент, дає точніші результати, ніж інші види. Такий тип використано, наприклад, у праці Е. Куссуль та ін. «Перцептрони Розенблата для розпізнавання рукописних цифр». Однак воно є незастосовним у тих випадках, коли кількість класів є значною, наприклад, кілька сотень. У таких випадках можна застосовувати гібридне конфігураційно-позиційне кодування, як це було зроблено у праці Яковлева «Система розпізнавання рухомих об'єктів на базі штучних нейронних мереж».
Керування агентами
У теорії штучного інтелекту часто розглядають агентів, що навчаються (адаптуються до довкілля). При цьому в умовах невизначеності стає важливим аналізувати не лише поточну інформацію, а й загальний контекст ситуації, в яку потрапив агент, тому тут застосовують [ru]. Крім того, в деяких задачах стає важливим підвищення швидкості навчання перцептрона, наприклад, за допомогою моделювання рефрактерності.
Після періоду, відомого як «Зима штучного інтелекту», інтерес до кібернетичним моделей відродився в 1980-х роках, оскільки прихильники символьного підходу в ШІ так і не змогли підібратися до вирішення питань про «Розуміння» і «Значення», через що машинний переклад і технічне розпізнавання образів досі володіють неусувними недоліками. Сам Мінський публічно висловив жаль, що його виступ завдав шкоди концепції перцептронів, хоча книга лише показувала недоліки окремо взятого пристрою та деяких його варіацій. Але в основному ШІ став синонімом символьного підходу, що виражався у складанні все складніших програм для комп'ютерів, що моделюють складну діяльність мозку людини.
Багатокласовий перцептрон
Як і більшість інших методик для тренування лінійних класифікаторів, перцептрон природно узагальнюється до [en]. Тут вхід та вихід витягуються з довільних множин. Функція представлення ознак відображує кожну можливу пару входів/виходів на скінченновимірний дійснозначний вектор ознак. Як і раніше, вектор ознак множиться на ваговий вектор , але тепер отримуваний бал використовується для вибору серед багатьох можливих виходів:
Навчання, знов-таки, проходить зразками, передбачуючи вихід для кожного, залишаючи ваги незмінними коли передбачений вихід відповідає цільовому, і змінюючи їх, коли ні. Уточненням стає:
Це формулювання багатокласового зворотного зв'язку зводиться до оригінального перцептрону, коли є дійснозначним вектором, обирається з , а .
Для деяких задач можливо обирати представлення входів/виходів та ознаки таким чином, що буде можливо знаходити ефективно, навіть якщо вибирається з дуже великої, або навіть нескінченної множини.
Останніми роками перцептронове тренування стало популярним в галузі обробки природної мови для таких задач як розмічування частин мови та синтаксичний аналіз.
Див. також
Примітки
- «Марк-1», зокрема, був системою, що імітує людське око та його взаємодію з мозком.
- «Тришарові» за класифікацією, прийнятою у Розенблата, і «двошарові» за сучасною системою позначень — з тією особливістю, що перший шар не навчається.
- В межах символьного підходу працюють над створенням експертних систем, організацією баз знань, аналізом текстів.
- Формально A-елементи, як і R-елементи, являють собою суматори з порогом, тобто поодинокі нейрони.
- Викладення в цьому розділі спрощено з причини складності аналізу на основі предикатів.
- Предикат є еквівалентним входові лише в окремому випадку — лише коли він залежить від одного аргументу.
- [ru] вважає цю задачу найскладнішою для проведення гіперплощини у просторі рецепторів.
- На перших етапах розвитку науки про штучний інтелект її задача розглядалася в абстрактному сенсі — створення систем, що нагадують за розумом людину (див. Штучний загальний інтелект). Сучасні формулювання задач в ШІ є, як правило, точнішими.
Джерела
- Rosenblatt, Frank (1958), The Perceptron: A Probabilistic Model for Information Storage and Organization in the Brain, Cornell Aeronautical Laboratory, Psychological Review, v65, No. 6, pp. 386—408. (англ.)
- Warren S. McCulloch and Walter Pitts, A logical calculus of the ideas immanent in nervous activity[недоступне посилання з листопадаа 2019](англ.)
- Donald Olding Hebb The Organization of Behavior: A Neuropsychological Theory [1] [ 23 листопада 2012 у Wayback Machine.] (англ.)
- Perceptrons.Estebon.html Perceptrons: An Associative Learning Network[недоступне посилання з липня 2019](англ.)
- Поява перцептрону[недоступне посилання з квітня 2019](рос.)
- Системи розпізнавання образів [ 26 січня 2010 у Wayback Machine.] (рос.)
- Минский М., Пейперт С., с. 50.
- The Perceptron: A Probabilistic Model for Information Storage and Organization in the Brain [ 18 лютого 2008 у Wayback Machine.] (англ.)
- Розенблатт Ф., с. 102.
- Фомин, С. В., Беркинблит, М. Б. Математические проблемы в биологии [ 21 грудня 2009 у Wayback Machine.] (рос.)
- Розенблатт, Ф., с. 158—162.
- Розенблатт, Ф., с. 162—163.
- Брюхомицкий Ю. А. Нейросетевые модели для систем информационной безопасности, 2005. (рос.)
- Розенблатт Ф., с. 81.
- Розенблатт, Ф., с. 200.
- Розенблатт Ф., с. 82.
- Розенблатт Ф., с. 83.
- Розенблатт Ф., с. 93.
- Розенблатт, Ф., с. 230.
- Минский, Пейперт, с. 11—18.
- Розенблатт, Ф., с. 85—88.
- Розенблатт, Ф., с. 86.
- Хайкин С., 2006, с. 225—243, 304—316.
- Уоссермен, Ф.Нейрокомпьютерная техника: Теория и практика, 1992. (рос.)
- [[https://web.archive.org/web/20180621193945/https://ieeexplore.ieee.org/abstract/document/8336337/ Архівовано 21 червня 2018 у Wayback Machine.] Melnychuk S., Yakovyn S., Kuz M. Emulation of logical functions NOT, AND, OR, and XOR with a perceptron implemented using an information entropy function // 2018 14th International Conference on Advanced Trends in Radioelecrtronics, Telecommunications and Computer Engineering (TCSET). - 2018. - P.878-882] (англ.)
- Бонгард М. М. Проблема узнавания М.: Физматгиз, 1967. (рос.)
- Минский М., Пейперт С., с. 59.
- Розенблатт, Ф., с. 101.
- Минский, Пейперт, с. 155, 189 (не дослівно, спрощено для виразності).
- Розенблатт, стр. 239
- Розенблатт, стр. 242
- Розенблатт, Ф., с. 18.
- Розенблатт, Ф., с. 70—77.
- Лекція 3: Навчання з учителем: Розпізнавання образів [ 1 листопада 2011 у Wayback Machine.] (рос.)
- ГОСТ Р 52633.5-2011 «Защита информации. Техника защиты информации. Автоматическое обучение нейросетевых преобразователей биометрия-код доступа» (рос.)
- Иванов А. И. «Подсознание искусственного интеллекта: программирование автоматов нейросетевой биометрии языком их обучения» [ 4 серпня 2016 у Wayback Machine.] (рос.)
- Minsky M L and Papert S A 1969 Perceptrons (Cambridge, MA: MIT Press) (англ.)
- Минский М., Пейперт С., с. 76—98.
- Минский М., Пейперт С., с. 113—116.
- Минский М., Пейперт С., с. 192—214.
- Минский, Пейперт, с. 163—187
- Минский, Пейперт, с. 153—162
- Розенблатт, Ф., с. 219—224.
- Яковлев С. С. Использование принципа рекуррентности Джордана в перцептроне Розенблатта, Журнал «АВТОМАТИКА И ВЫЧИСЛИТЕЛЬНАЯ ТЕХНИКА», Рига, 2009 [ 1 липня 2017 у Wayback Machine.]. Virtual Laboratory Wiki. (рос.)
- Яковлев С. С., Investigation of Refractoriness principle in Recurrent Neural Networks, Scientific proceedings of Riga Technical University, Issue 5, Vol.36, RTU, Riga, 2008, P. 41-48. Читати [ 7 березня 2016 у Wayback Machine.] (рос.)
- [en] 2002. Discriminative training methods for hidden Markov models: Theory and experiments with the perceptron algorithm in Proceedings of the Conference on Empirical Methods in Natural Language Processing (EMNLP '02). (англ.)
Література
- [ru]. Проблема узнавания. — М. : Наука, 1967. — 320 с. (рос.)
- Брюхомицкий, Ю. А. Нейросетевые модели для систем информационной безопасности: Учебное пособие. — Таганрог : Изд-во ТРТУ, 2005. — 160 с. (рос.)
- Мак-Каллок, У. С., [en]. Логическое исчисление идей, относящихся к нервной активности // Автоматы : сб.. — М., 1956. — С. 363—384. (рос.)
- Минский, М., Пейперт, С. Персептроны = Perceptrons. — М. : Мир, 1971. — 261 с. (рос.)
- Розенблатт, Ф. Принципы нейродинамики: Перцептроны и теория механизмов мозга = Principles of Neurodynamic: Perceptrons and the Theory of Brain Mechanisms. — М. : Мир, 1965. — 480 с. (рос.)
- Уоссермен, Ф. Нейрокомпьютерная техника: Теория и практика = Neural Computing. Theory and Practice. — М. : Мир, 1992. — 240 с. — . (рос.)
- Хайкин, С. Нейронные сети: Полный курс = Neural Networks: A Comprehensive Foundation. — 2-е изд. — М. : «Вильямс», 2006. — 1104 с. — . (рос.)
- Яковлев С. С. Система распознавания движущихся объектов на базе искусственных нейронных сетей // ИТК НАНБ. — Минск, 2004. — С. 230—234. (рос.)
- Kussul E., Baidyk T., Kasatkina L., Lukovich V. Перцептроны Розенблатта для распознавания рукописных цифр // IEEE. — 2001. — С. 1516—1520. (англ.)
- Stormo G. D., Schneider T. D., Gold L., Ehrenfeucht A. Использование перцептрона для выделения сайтов инициации в E. coli // Nucleic Acids Research. — 1982. — С. P. 2997–3011. (англ.)
Посилання
- Перцептрон. Virtual Laboratory Wiki. Архів оригіналу за 19 серпня 2011. Процитовано 17 січня 2009.
{{}}
: Cite має пустий невідомий параметр:|description=
() (рос.) - Появление перцептрона. Архів оригіналу за 19 серпня 2011. Процитовано 17 січня 2009. (рос.)
- Ежов А. А., Шумский С. А. (2006). Нейрокомпьютинг и его применения в экономике и бизнесе. ИНТУИТ. Архів оригіналу за 19 серпня 2011. Процитовано 17 січня 2009.
{{}}
: Cite має пустий невідомий параметр:|description=
() (рос.) - Редько В. Г. (1999). Искусственные нейронные сети. Архів оригіналу за 19 серпня 2011. Процитовано 17 січня 2009. (рос.)
- Яковлев С. С. (2006). Линейность и инвариантность в искусственных нейронных сетях. Архів оригіналу (pdf) за 19 серпня 2011. Процитовано 17 січня 2009. (рос.)
- Estebon, M. D.; Tech, V. (1997). Perceptrons: An Associative Learning Network (англ.). Архів оригіналу за 19 серпня 2011. Процитовано 17 січня 2009. (англ.)
- Беркинблит М. Б. (1993). Нейронные сети. Глава "Перцептроны и другие обучающиеся классификационные системы". Архів оригіналу за 19 серпня 2011. Процитовано 17 січня 2009. (рос.)
- SergeiAlderman-ANN.rtf [ 26 березня 2010 у Wayback Machine.]
- Flood: An Open Source Neural Networks C++ Library [ 5 жовтня 2011 у Wayback Machine.]
- Chapter 3 Weighted networks - the perceptron [ 24 серпня 2007 у Wayback Machine.] and Chapter 4 Perceptron learning [ 24 серпня 2007 у Wayback Machine.] of Neural Networks - A Systematic Introduction [ 22 січня 2016 у Wayback Machine.] by Raúl Rojas () (англ.)
- Pithy explanation of the update rule [ 31 жовтня 2008 у Wayback Machine.] by Charles Elkan (англ.)
- History of perceptrons [ 14 січня 2009 у Wayback Machine.] (англ.)
- Mathematics of perceptrons [ 28 жовтня 2008 у Wayback Machine.] (англ.)
- (англ.)
Вікіпедія, Українська, Україна, книга, книги, бібліотека, стаття, читати, завантажити, безкоштовно, безкоштовно завантажити, mp3, відео, mp4, 3gp, jpg, jpeg, gif, png, малюнок, музика, пісня, фільм, книга, гра, ігри, мобільний, телефон, android, ios, apple, мобільний телефон, samsung, iphone, xiomi, xiaomi, redmi, honor, oppo, nokia, sonya, mi, ПК, web, Інтернет
Perceptro n abo perseptro n angl perceptron vid lat perceptio sprijnyattya nim perzeptron matematichna abo komp yuterna model sprijnyattya informaciyi mozkom kibernetichnamodel mozku zaproponovana Frenkom Rozenblatom v 1957 roci j realizovana u viglyadi elektronnoyi mashini ru u 1960 roci Perceptron stav odniyeyu z pershih modelej nejromerezh a Mark 1 pershim u sviti nejrokomp yuterom Nezvazhayuchi na svoyu prostotu perceptron zdaten navchatisya i rozv yazuvati dosit skladni zavdannya Osnovna matematichna zadacha z yakoyu vin zdatnij vporatisya ce linijne rozdilennya dovilnih nelinijnih mnozhin tak zvane zabezpechennya linijnoyi separabelnosti Logichna shema perceptronu z troma vihodami Perceptron skladayetsya z troh tipiv elementiv a same signali sho nadhodyat vid davachiv peredayutsya do asociativnih elementiv a vidtak do reaguyuchih Takim chinom perceptroni dozvolyayut stvoriti nabir asociacij mizh vhidnimi stimulami ta neobhidnoyu na vihodi V biologichnomu plani ce vidpovidaye peretvorennyu napriklad zorovoyi informaciyi u ruhovih nejroniv Vidpovidno do suchasnoyi terminologiyi perceptroni mozhe buti klasifikovano yak shtuchni nejronni merezhi z odnim prihovanim sharom z porogovoyu peredavalnoyu funkciyeyu z pryamim rozpovsyudzhennyam signalu Na tli zrostannya populyarnosti nejronnih merezh u 1969 roci vijshla kniga Marvina Minskogo ta Sejmura Pejperta sho pokazala principovi obmezhennya perceptroniv Ce prizvelo do zmishennya interesu doslidnikiv shtuchnogo intelektu v protilezhnu vid nejromerezh oblast simvolnih obchislen Krim togo cherez skladnist matematichnogo analizu perceptroniv a takozh vidsutnist zagalnoprijnyatoyi terminologiyi vinikli rizni netochnosti i pomilki Zgodom interes do nejromerezh i zokrema robit Rozenblata ponovivsya Tak napriklad zaraz strimko rozvivayetsya biokomp yuting sho u svoyij teoretichnij osnovi obchislen zokrema bazuyetsya na nejronnih merezhah a perceptron vidtvoryuyut na bazi bakteriorodopsinmisnih plivok Poyava perceptronaShema shtuchnogo nejronu bazovogo elementu bud yakoyi nejronnoyi merezhi U 1943 roci v svoyij statti Logichne chislennya idej sho stosuyutsya nervovoyi aktivnosti Vorren Makkaloh i en zaproponuvali ponyattya shtuchnoyi nejronnoyi merezhi Zokrema nimi bulo zaproponovano model shtuchnogo nejronu Donald Gebb v roboti Organizaciya povedinki 1949 roku opisav osnovni principi navchannya nejroniv Ci ideyi kilka rokiv piznishe rozvinuv amerikanskij nejrofiziolog Frenk Rozenblat Vin zaproponuvav shemu pristroyu sho modelyuye proces lyudskogo sprijnyattya i nazvav jogo perceptronom Perceptron peredavav signali vid fotoelementiv sho yavlyayut soboyu sensorne pole v bloki elektromehanichnih elementiv pam yati Ci komirki z yednuvalisya mizh soboyu vipadkovim chinom vidpovidno do principiv konekcionizmu 1957 roku v en bulo uspishno zaversheno modelyuvannya roboti perceptrona na komp yuteri IBM 704 a dvoma rokami piznishe 23 chervnya 1960 roku v Kornelskomu universiteti bulo prodemonstrovano pershij nejrokomp yuter Mark 1 sho buv zdaten rozpiznavati deyaki z liter anglijskogo alfavitu Frenk Rozenblat zi svoyim tvorinnyam Mark 1 Shobi navchiti perceptron klasifikuvati obrazi bulo rozrobleno specialnij iteracijnij metod navchannya prob i pomilok sho nagaduye proces navchannya lyudini metod korekciyi pomilki Krim togo pri rozpiznanni tiyeyi chi inshoyi literi perceptron mig vidilyati harakterni osoblivosti literi sho statistichno zustrichayutsya chastishe nizh neznachni vidminnosti v individualnih vipadkah Takim chinom perceptron buv zdaten uzagalnyuvati literi napisani po riznomu riznim pocherkom v odin uzagalnenij obraz Prote mozhlivosti perceptrona buli obmezhenimi mashina ne mogla nadijno rozpiznavati chastkovo zakriti literi a takozh literi inshogo rozmiru roztashovani zi zsuvom abo povorotom vidnosno tih sho vikoristovuvalisya na etapi yiyi navchannya Zvit pro pershi rezultati z yavivsya she 1958 roku todi Rozenblat bulo opublikovano stattyu Perceptron Jmovirna model zberigannya ta organizaciyi informaciyi v golovnomu mozku Ale dokladnishe svoyi teoriyi ta pripushennya shodo procesiv sprijnyattya i perceptroniv vin opisuye 1962 roku v knizi Principi nejrodinamiki Perceptroni ta teoriya mehanizmiv mozku U knizi vin rozglyadaye ne lishe vzhe gotovi modeli perceptronu z odnim prihovanim sharom ale j bagatosharovih perceptroniv z ru tretij rozdil i ru chetvertij rozdil zv yazkami V knizi takozh vvoditsya ryad vazhlivih idej ta teorem napriklad dovoditsya teorema zbizhnosti perceptronu Opis elementarnogo perceptronaNadhodzhennya signaliv iz sensornogo polya do rozv yazuvalnih blokiv elementarnogo perceptrona v jogo fizichnomu vtilenni Logichna shema elementarnogo perceptronu Vagi zv yazkiv S A mozhut mati znachennya 1 1 abo 0 tobto vidsutnist zv yazku Vagi zv yazkiv A R W mozhut mati bud yake znachennya Elementarnij perceptron skladayetsya z elementiv troh tipiv S elementiv A elementiv ta odnogo R elementu S elementi ce shar sensoriv abo receptoriv U fizichnomu vtilenni voni vidpovidayut napriklad svitlochutlivim klitinam sitkivki oka abo fotorezistoram matrici kameri Kozhen receptor mozhe perebuvati v odnomu z dvoh staniv spokoyu abo zbudzhennya i lishe v ostannomu vipadku vin peredaye odinichnij signal do nastupnij sharu asociativnim elementam A elementi nazivayutsya asociativnimi tomu sho kozhnomu takomu elementovi yak pravilo vidpovidaye cilij nabir asociaciya S elementiv A element aktivizuyetsya shojno kilkist signaliv vid S elementiv na jogo vhodi perevishuye pevnu velichinu 8 Signali vid zbudzhenih A elementiv svoyeyu chergoyu peredayutsya do sumatora R prichomu signal vid i go asociativnogo elementa peredayetsya z koeficiyentom wi displaystyle w i Cej koeficiyent nazivayetsya vagoyu A R zv yazku Tak samo yak i A elementi R element pidrahovuye sumu znachen vhidnih signaliv pomnozhenih na vagi linijnu formu R element a razom z nim i elementarnij perceptron vidaye 1 yaksho linijna forma perevishuye porig 8 inakshe na vihodi bude 1 Matematichno funkciyu sho realizuye R element mozhna zapisati tak f x sign i 1nwixi 8 displaystyle f x sign sum i 1 n w i x i theta Navchannya elementarnogo perceptrona polyagaye u zmini vagovih koeficiyentiv wi displaystyle w i zv yazkiv A R Vagi zv yazkiv S A yaki mozhut prijmati znachennya 1 0 1 i znachennya porogiv A elementiv vibirayutsya vipadkovim chinom na samomu pochatku i potim ne zminyuyutsya Opis algoritmu div nizhche Pislya navchannya perceptron gotovij pracyuvati v rezhimi rozpiznavannya abo uzagalnennya U comu rezhimi perceptronu pred yavlyayutsya ranishe nevidomi jomu ob yekti j vin povinen vstanoviti do yakogo klasu voni nalezhat Robota perceptrona polyagaye v nastupnomu pri pred yavlenni ob yekta zbudzheni A elementi peredayut signal R elementu sho dorivnyuye sumi vidpovidnih koeficiyentiv wi displaystyle w i Yaksho cya suma pozitivna to uhvalyuyetsya rishennya sho danij ob yekt nalezhit do pershogo klasu a yaksho vona negativna to do drugogo Osnovni ponyattya teoriyi perceptronivSerjozne oznajomlennya z teoriyeyu perceptroniv vimagaye znannya bazovih viznachen i teorem sukupnist yakih i yavlyaye soboyu bazovu osnovu dlya vsih nastupnih vidiv shtuchnih nejronnih merezh Ale yak minimum neobhidno rozuminnya hocha b z tochki zoru teoriyi signaliv sho ye originalnim tobto opisane avtorom perceptronu F Rozenblatom Opis na osnovi signaliv Porogova funkciya sho realizuyetsya prostimi S ta A elementami Porogova funkciya sho realizuyetsya prostim R elementom Dlya pochatku viznachmo skladovi elementi perceptrona yaki ye chastkovimi vipadkami shtuchnogo nejronu z porogovoyu funkciyeyu peredachi Prostim S elementom sensornim ye chutlivij element yakij vid diyi bud yakogo z vidiv energiyi napriklad svitla zvuku tisku tepla tosho viroblyaye signal Yaksho vhidnij signal perevishuye pevnij porig 8 na vihodi elementa otrimuyemo 1 v inshomu vipadku 0 Prostim A elementom asociativnim nazivayetsya logichnij element yakij daye vihidnij signal 1 koli algebrayichna suma jogo vhidnih signaliv dorivnyuye abo perevishuye deyaku granichnu velichinu 8 kazhut sho element Aktivnij v inshomu vipadku vihid dorivnyuye nulyu Prostim R elementom takim sho reaguye tobto diye nazivayetsya element yakij vidaye signal 1 yaksho suma jogo vhidnih signaliv ye suvoro dodatnoyu i signal 1 yaksho suma jogo vhidnih signaliv ye suvoro vid yemnoyu Yaksho suma vhidnih signaliv dorivnyuye nulyu vihid vvazhayetsya abo rivnim nulyu abo neviznachenim Yaksho na vihodi bud yakogo elementa mi otrimuyemo 1 to kazhut sho element aktivnij abo zbudzhenij Vsi rozglyanuti elementi nazivayutsya prostimi tomu sho voni realizuyut stribkopodibni funkciyi Rozenblat stverdzhuvav sho dlya rozv yazannya skladnishih zavdan mozhut znadobitisya inshi vidi funkcij napriklad linijna V rezultati Rozenblat vviv taki viznachennya Perceptron yavlyaye soboyu merezhu sho skladayetsya z S A ta R elementiv zi zminnoyu matriceyu vzayemodiyi W elementi yakoyi wij displaystyle w ij vagovi koeficiyenti sho viznachayetsya poslidovnistyu minulih staniv aktivnosti merezhi Perceptronom z poslidovnimi zv yazkami nazivayetsya sistema v yakij vsi zv yazki sho pochinayutsya vid elementiv z logichnoyu vidstannyu d vid najblizhchogo S elementu zakinchuyutsya na elementah z logichnoyu vidstannyu d 1 vid najblizhchogo S elementu Prostim perceptronom nazivayetsya bud yaka sistema sho zadovolnyaye nastupni p yat umov v sistemi ye lishe odin R element prirodno vin pov yazanij z usima A elementami sistema yavlyaye soboyu perceptron z poslidovnimi zv yazkami sho jdut lishe vid S elementiv do A elementiv ta vid A elementiv do R elementiv vagi vsih zv yazkiv vid S elementiv do A elementiv S A zv yazkiv nezminni chas peredachi kozhnogo zv yazku dorivnyuye abo nulyu abo stalij velichini t displaystyle tau vsi funkciyi aktivaciyi S A R elementiv mayut viglyad Ui t f ai t displaystyle U i t f a i t de ai t displaystyle a i t algebrayichna suma vsih signaliv sho nadhodyat odnochasno na vhid elementa ui displaystyle u i Elementarnim perceptronom nazivayetsya prostij perceptron u yakogovsi elementi prosti U comu vipadku jogo funkciya aktivaciyi maye viglyad cij t Ui t t wij t displaystyle c ij t U i t tau w ij t Dodatkovo mozhna vkazati na taki koncepciyi zaproponovani v knizi ta piznishe rozvineni v ramkah teoriyi nejronnih merezh ru ce sistema v yakij isnuyut zv yazki mizh elementami odnogo tipu S A abo R sho znahodyatsya na odnakovij vidstani vid S elementiv prichomu vsi inshi zv yazki poslidovnogo tipu ru ce sistema v yakij isnuye hocha b odin zv yazok vid logichno viddalenishogo elementa do mensh viddalenogo Zgidno suchasnoyi terminologiyi taki merezhi nazivayutsya rekurentnimi nejronnimi merezhami ru ce sistema v yakij znyato obmezhennya na fiksovanist zv yazkiv vid S elementiv do A elementiv Dovedeno sho shlyahom optimizaciyi S A zv yazkiv mozhna dosyagti znachnogo polipshennya harakteristik perceptrona Opis na osnovi predikativ Detalnishi vidomosti z ciyeyi temi vi mozhete znajti v statti ru Marvin Minskij vivchav vlastivosti paralelnih obchislen okremim vipadkom yakih na toj chas buv perceptron Dlya analizu jogo vlastivostej jomu dovelosya pereklasti teoriyu perceptroniv na movu predikativ Sut pidhodu polyagala v nastupnomu mnozhini signaliv vid S elementiv bulo postavleno u vidpovidnist zminnu X kozhnomu A elementovi postavleno u vidpovidnist predikat f X fi vid iks nazvanij chastinnim predikatom kozhnomu R elementovi postavleno u vidpovidnist predikat ps psi sho zalezhit vid chastinnih predikativ nareshti perceptronom bulo nazvano pristrij zdatnij obchislyuvati vsi predikati tipu ps V zorovomu perceptroni zminna X simvolizuvala obraz bud yakoyi geometrichnoyi figuri stimul Chastinnij predikat dozvolyav kozhnomu A elementovi rozpiznavati svoyu figuru Predikat ps oznachav situaciyu koli linijna kombinaciya a1ϕ1 anϕn displaystyle a 1 phi 1 ldots a n phi n ai displaystyle a i koeficiyenti peredachi perevishuvala pevnij porig 8 Naukovci vidilili 5 klasiv perceptroniv sho volodiyut na yihnyu dumku cikavimi vlastivostyami Perceptroni obmezheni za diametrom kozhna figura X sho rozpiznayetsya chastinnimi predikatami ne perevishuye za diametrom deyaku fiksovanu velichinu Perceptroni obmezhenogo poryadku kozhen chastinnij predikat zalezhit vid obmezhenoyi kilkosti tochok z X Perceptroni Gamba kozhen chastinnij predikat povinen buti linijnoyu porogovoyu funkciyeyu tobto mini perceptronom Vipadkovi perceptroni perceptroni obmezhenogo poryadku koli chastinni predikati yavlyayut soboyu vipadkovo vibrani bulevi funkciyi V knizi zaznachayetsya sho same cyu model najdokladnishe doslidzhuvala grupa Rozenblata Obmezheni perceptroni mnozhina chastinnih predikativ neskinchenna a mnozhina mozhlivih znachen koeficiyentiv ai displaystyle a i skinchenna Hocha takij matematichnij aparat dozvoliv zastosuvati cej analiz lishe do elementarnogo perceptronu Rozenblata vin rozkriv bagato principovih obmezhen dlya paralelnih obchislen yaki maye kozhen vid suchasnih shtuchnih nejronnih merezh Istorichna klasifikaciyaArhitektura bagatosharovogo perceptronu oboh pidtipiv Ponyattya perceptrona maye cikavu ale nezavidnu istoriyu V rezultati nerozvinenoyi terminologiyi nejronnih merezh minulih rokiv rizkoyi kritiki ta nerozuminnya zavdan doslidzhennya perceptroniv a inodi j pomilkovogo osvitlennya presoyu pochatkovij sens cogo ponyattya bulo vikrivleno Porivnyuyuchi rozrobki Rozenblata ta suchasni oglyadi j statti mozhna vidiliti 4 dovoli vidosoblenih klasi perceptroniv Perceptron z odnim prihovanim sharom Ce klasichnij perceptron sho jomu prisvyacheno bilshu chastina knigi Rozenblata i sho rozglyadayetsya v cij statti u nogo ye po odnomu sharu S A ta R elementiv Odnosharovij perceptron Ce model u yakij vhidni elementi bezposeredno z yednano z vihidnimi za dopomogoyu sistemi vag Ye najprostishoyu merezheyu pryamogo poshirennya linijnim klasifikatorom i okremim vipadkom klasichnogo perceptrona v yakomu kozhen S element odnoznachno vidpovidaye odnomu A elementovi S A zv yazku mayut vagu 1 i vsi A elementi mayut porig 8 1 Odnosharovi perceptroni faktichno ye formalnimi nejronami tobto porogovimi elementami Mak Kalloka Pittsa Voni mayut bezlich obmezhen zokrema voni ne mozhut identifikuvati situaciyu koli na yihni vhodi podano rizni signali zavdannya XOR div nizhche Bagatosharovij perceptron Rozenblatta Ce perceptron v yakomu prisutni dodatkovi shari A elementiv Jogo analiz proviv Rozenblat u tretij chastini svoyeyi knigi Bagatosharovij perceptron Rumelharta Ce perceptron v yakomu prisutni dodatkovi shari A elementiv prichomu navchannya takoyi merezhi provoditsya za metodom zvorotnogo poshirennya pomilki i navchayutsya vsi shari perceptronu vklyuchno z S A Ye okremim vipadkom bagatosharovogo perceptronu Rozenblata V danij chas v literaturi pid terminom perceptron najchastishe rozumiyut odnosharovij perceptron angl single layer perceptron prichomu isnuye poshirena omana sho same cej najprostishij tip modelej zaproponuvav Rozenblat Na protivagu odnosharovomu stavlyat bagatosharovij perceptron angl multilayer perceptron znovu zh taki najchastishe mayuchi na uvazi bagatosharovij perceptron Rumelharta a ne Rozenblata Klasichnij perceptron u takij dihotomiyi vidnosyat do bagatosharovih Algoritmi navchannyaVazhlivoyu vlastivistyu bud yakoyi nejronnoyi merezhi ye zdatnist do navchannya Proces navchannya ye proceduroyu nalashtuvannya vag ta porogiv z metoyu zmenshennya riznici mizh bazhanimi cilovimi ta otrimuvanimi vektorami na vihodi U svoyij knizi Rozenblat namagavsya klasifikuvati rizni algoritmi navchannya perceptronu nazivayuchi yih sistemami pidkriplennya Sistema pidkriplennya ce bud yakij nabir pravil na pidstavi yakih mozhna zminyuvati z plinom chasu matricyu vzayemodiyi abo stan pam yati perceptronu Opisuyuchi ci sistemi pidkriplennya i utochnyuyuchi mozhlivi yihni vidi Rozenblat gruntuvavsya na ideyah D Gebba pro navchannya zaproponovanih nim 1949 roku yaki mozhna perefrazuvati v nastupne pravilo yake skladayetsya z dvoh chastin Yaksho dva nejroni z oboh bokiv sinapsu z yednannya aktivizuyutsya odnochasno tobto sinhronno to micnist cogo z yednannya zrostaye Yaksho dva nejroni z oboh bokiv sinapsu aktivizuyutsya asinhronno to takij sinaps poslablyuyetsya abo vzagali vidmiraye Kerovane navchannya Dokladnishe Metod korekciyi pomilki Klasichnij metod navchannya perceptronu ce metod korekciyi pomilki Vin yavlyaye soboyu takij vid kerovanogo navchannya pri yakomu vaga zv yazku ne zminyuyetsya do tih pir poki potochna reakciya perceptrona zalishayetsya pravilnoyu Pri poyavi nepravilnoyi reakciyi vaga zminyuyetsya na odinicyu a znak viznachayetsya protilezhnim vid znaku pomilki Pripustimo mi hochemo navchiti perceptron rozdilyati dva klasi ob yektiv tak shobi pri pred yavlenni ob yektiv pershogo klasu vihid perceptrona buv pozitivnij 1 a pri pred yavlenni ob yektiv drugogo klasu negativnim 1 Dlya cogo vikonayemo nastupnij algoritm Vipadkovo vibirayemo porogi dlya A elementiv ta vstanovlyuyemo zv yazki S A dali voni ne zminyuvatimutsya Pochatkovi koeficiyenti wi displaystyle w i vvazhayemo rivnimi nulevi Pred yavlyayemo navchalnu vibirku ob yekti napriklad kola abo kvadrati iz zaznachennyam klasu do yakogo voni nalezhat Pokazuyemo perceptronovi ob yekt pershogo klasu Pri comu deyaki A elementi zbudyatsya Koeficiyenti wi displaystyle w i sho vidpovidayut cim zbudzhennyam elementiv zbilshuyemo na 1 Pred yavlyayemo ob yekt drugogo klasu i koeficiyenti wi displaystyle w i tih A elementiv yaki zbudilisya pri comu pokazi zmenshuyemo na 1 Obidvi chastini kroku 3 vikonayemo dlya vsiyeyi navchalnoyi vibirki V rezultati navchannya sformuyutsya znachennya vagiv zv yazkiv wi displaystyle w i Teorema zbizhnosti perceptronu opisana i dovedena F Rozenblatom za uchastyu Bloka Dzhozefa Kesta ta inshih doslidnikiv yaki pracyuvali razom z nim pokazuye sho elementarnij perceptron navchenij za takim algoritmom nezalezhno vid pochatkovogo stanu vagovih koeficiyentiv i poslidovnosti poyavi stimuliv zavzhdi privede do dosyagnennya rishennya za skinchennij promizhok chasu Nekerovane navchannya Krim klasichnogo metodu navchannya perceptronu Rozenblat takozh vviv ponyattya pro nekerovane navchannya zaproponuvavshi nastupnij sposib navchannya Alfa sistema pidkriplennya ce sistema pidkriplennya za yakoyi vagi vsih aktivnih zv yazkiv cij displaystyle c ij sho vedut do elementa uj displaystyle u j zminyuyutsya na odnakovu velichinu r a vagi neaktivnih zv yazkiv za cej chas ne zminyuyutsya Piznishe z rozrobkoyu ponyattya bagatosharovogo perceptronu alfa sistemu bulo modifikovano i yiyi stali nazivati delta pravilom Modifikaciyu bulo provedeno z metoyu zrobiti funkciyu navchannya diferencijovnoyu napriklad sigmoyidnoyu sho v svoyu chergu potribno dlya zastosuvannya metodu gradiyentnogo spusku zavdyaki yakomu mozhlive navchannya bilshe nizh odnogo sharu Metod zvorotnogo poshirennya pomilki Dokladnishe Metod zvorotnogo poshirennya pomilki Dlya navchannya bagatosharovih merezh ryad uchenih u tomu chisli en bulo zaproponovano gradiyentnij algoritm kerovanogo navchannya sho provodit signal pomilki obchislenij vihodami perceptrona do jogo vhodiv shar za sharom Zaraz ce ye najpopulyarnishij metod navchannya bagatosharovih perceptroniv Jogo perevaga v tomu sho vin mozhe navchiti vsi shari nejronnoyi merezhi i jogo legko prorahuvati lokalno Odnak cej metod ye duzhe dovgim do togo zh dlya jogo zastosuvannya potribno shob peredavalna funkciya nejroniv bula diferencijovnoyu Pri comu v perceptronah dovelosya vidmovitisya vid binarnogo signalu i koristuvatisya na vhodi neperervnimi znachennyami Tradicijni pomilkiV rezultati populyarizaciyi shtuchnih nejronnih merezh zhurnalistami ta marketologami bulo dopusheno ryad netochnostej yaki pri nedostatnomu vivchenni originalnih robit z ciyeyi tematiki nepravilno tlumachilisya molodimi na toj chas naukovcyami V rezultati do sogodni mozhna zustritisya z nedostatno glibokim traktuvannyam funkcionalnih mozhlivostej perceptrona u porivnyanni z inshimi nejronnimi merezhami rozroblenimi v nastupni roki Terminologichni netochnosti Najposhirenishoyu pomilkoyu pov yazanoyu z terminologiyeyu ye viznachennya perceptrona yak nejronnoyi merezhi bez prihovanih shariv odnosharovogo perceptrona div vishe Cya pomilka pov yazana z nedostatno proroblenoyu terminologiyeyu v galuzi nejromerezh na rannomu etapi yihnoyi rozrobki F Uossermenom bulo zrobleno sprobu pevnim chinom klasifikuvati rizni vidi nejronnih merezh Yak vidno z publikacij nemaye zagalnoprijnyatogo sposobu pidrahunku kilkosti shariv v merezhi Bagatosharova merezha skladayetsya z mnozhin nejroniv i vag sho cherguyutsya Vhidnij shar ne vikonuye pidsumovuvannya Ci nejroni sluguyut lishe yak rozgaluzhennya dlya pershoyi mnozhini vag i ne vplivayut na obchislyuvalni mozhlivosti merezhi Z ciyeyi prichini pershij shar ne berut do uvagi pri pidrahunku shariv i merezha vvazhayetsya dvosharovoyu oskilki lishe dva shari vikonuyut obchislennya Dali vagi sharu vvazhayutsya pov yazanimi z nastupnimi za nimi nejronami Otzhe shar skladayetsya z mnozhini vag z nastupnimi za nimi nejronami sho pidsumovuyut zvazheni signali V rezultati takogo podannya perceptron potrapiv pid viznachennya odnosharova nejronna merezha Chastkovo ce virno tomu sho v nogo nemaye prihovanih shariv nejroniv yaki navchayutsya vagi yakih adaptuyutsya do zadachi I tomu vsyu sukupnist fiksovanih zv yazkiv sistemi z S do A elementiv mozhna logichno zaminiti naborom modifikovanih za zhorstkim pravilom novih vhidnih signaliv sho nadhodyat vidrazu na A elementi usunuvshi tim samim vzagali pershij shar zv yazkiv Ale tut yak raz ne vrahovuyut te sho taka modifikaciya peretvoryuye nelinijne podannya zavdannya v linijne Tomu proste ignoruvannya shariv iz fiksovanimi zv yazkami sho ne navchayutsya v elementarnomu perceptroni ce S A zv yazki prizvodit do nepravilnih visnovkiv pro mozhlivosti nejromerezhi Tak Minskij vchiniv duzhe korektno pereformulyuvavshi A element yak predikat tobto funkciyu navpaki Uossermen vzhe vtrativ take podannya i u nogo A element prosto vhid majzhe ekvivalentnij S elementu Za takoyi terminologichnoyi plutanini ne beretsya do uvagi toj fakt sho v perceptroni vidbuvayetsya vidobrazhennya receptornogo polya S elementiv na asociativne pole A elementiv v rezultati chogo j vidbuvayetsya peretvorennya bud yakoyi linijno nerozdilnoyi zadachi na linijno rozdilnu Funkcionalni pomilki Rozv yazannya elementarnim perceptronom zadachi XOR Porig vsih elementiv 8 0 Bilshist funkcionalnih pomilok zvodyatsya do nibito nemozhlivosti virishennya perceptronom nelinijno rozdilnoyi zadachi Ale variacij na cyu temu dosit bagato nizhche rozglyanuto golovni z nih Zavdannya XOR Perceptron ne zdaten rozv yazati zadachu XOR Duzhe poshirena j najneserjoznisha zayava Na ilyustraciyi pravoruch zobrazheno rozv yazannya ciyeyi zadachi perceptronom Cya pomilka vinikaye po pershe cherez te sho nepravilno interpretuyut viznachennya perceptrona danogo Minskim div vishe a same predikati vidrazu pririvnyuyut do vhodiv hocha predikat u Minskogo ce funkciya sho identifikuye cilij nabir vhidnih znachen Po druge cherez te sho klasichnij perceptron Rozenblata plutayut z odnosharovim perceptronom cherez terminologichni netochnosti opisani vishe Slid zvernuti uvagu na te sho odnosharovij perceptron u suchasnij terminologiyi ta odnosharovij perceptron v terminologiyi Uossermena ye riznimi ob yektami I ob yekt sho zobrazheno na ilyustraciyi v terminologiyi Uossermena ye dvosharovim perceptronom Docilno zaznachiti sho pri realizaciyi odnosharovogo perseptronu mozhna vikoristati nelinijni funkciyi klasifikaciyi Ce rozshiryuye jogo funkcionalni mozhlivosti ne zminyuyuchi strukturu Takij pidhid dozvolyaye znyati chastinu funkcionalnih obmezhen zokrema realizuvati logichnu funkciyu XOR Zdatnist do navchannya rozv yazannya linijno nerozdilnih zadach Viborom vipadkovih vag mozhna dosyagti navchannya rozv yazannya linijno nerozdilnih vzagali bud yakih zadach ale tilki yaksho poshastit i v novih zminnih vihodah A nejroniv zadacha viyavitsya linijno rozdilnoyu Prote mozhe j ne poshastiti Teorema zbizhnosti perceptronu dovodit sho nemaye i ne mozhe buti niyakogo mozhe i ne poshastiti pri rivnosti A elementiv kilkosti stimuliv i ne osoblivij ru imovirnist rishennya dorivnyuye 100 Tobto pri vidobrazhenni receptornogo polya na asociativne pole rozmirnosti bilshoyi na odnu vipadkovim nelinijnim operatorom nelinijna zadacha peretvoryuyetsya na linijno rozdilnu A nastupnij shar sho navchayetsya vzhe znahodit linijnij rozv yazok v inshomu prostori vhodiv Napriklad navchannya perceptrona dlya rozv yazannya zadachi XOR div ilyustraciyu provoditsya nastupnimi etapami Vagi Iteraciyi1 2 3 4 5w1 0 1 1 1 1 2 2 2 2w2 0 0 1 1 1 1 1 2 2w3 1 0 1 0 1 0 1 0 1Vhidni signali x y 1 1 0 1 1 0 1 1 1 1 0 1 1 1 1 0 1 1 Zdatnist do navchannya na malij kilkosti prikladiv Yaksho v zadachi rozmirnist vhodiv dosit visoka a navchalnih prikladiv malo to v takomu slabo zapovnenomu prostori kilkist uspihiv mozhe i ne viyavitisya maloyu Ce svidchit lishe pro chastkovu pridatnist perceptronu a ne pro jogo universalnist Cej argument legko pereviriti na testovij zadachi pid nazvoyu shahivnicya abo gubka z vodoyu Dano lancyuzhok z 2 Nodinic abo nuliv sho paralelno nadhodyat na vhodi perceptronu Yaksho cej lancyuzhok ye dzerkalno simetrichnim vidnosno centru to na vihodi bude 1 inakshe 0 Navchalni prikladi vsi ce vazhlivo 22N displaystyle 2 2N lancyuzhkiv Mozhut buti variaciyi danoyi zadachi napriklad Vizmimo chorno bile zobrazhennya rozmirom 256 256 elementiv pikseliv Vhidnimi danimi dlya perceptrona budut koordinati tochki 8 bit 8 bit razom potribno 16 S elementiv na vihodi vimagatimemo otrimati kolir tochki Navchayemo perceptron usim tochkam vsomu zobrazhennyu V rezultati mayemo 65 536 riznih par stimul reakciya Navchiti bez pomilok Yaksho cej argument spravedlivij to perceptron ne zmozhe ni za yakih umov navchitisya ne roblyachi zhodnoyi pomilki Inakshe perceptron ne pomilitsya zhodnogo razu Na praktici viyavlyayetsya sho dana zadacha ye duzhe prostoyu dlya perceptronu shob yiyi rozv yazati perceptronovi dostatno 1 500 A elementiv zamist povnih 65 536 neobhidnih dlya bud yakoyi zadachi Pri comu kilkist iteracij ye poryadku 1 000 Pri 1 000 A elementah perceptron ne shoditsya za 10 000 iteracij Yaksho zh zbilshiti kilkist A elementiv do 40 000 to shodzhennya mozhna chekati za 30 80 iteracij Takij argument z yavlyayetsya cherez te sho danu zadachu plutayut iz zadacheyu Minskogo pro predikat parnist Stabilizaciya vag ta zbizhnist U perceptroni Rozenblata stilki A elementiv skilki vhodiv I zbizhnist za Rozenblatom ce stabilizaciya vag U Rozenblata chitayemo Yaksho kilkist stimuliv u prostori W dorivnyuye n gt N tobto bilshe kilkosti A elementiv elementarnogo perceptronu to isnuye deyaka klasifikaciya S W dlya yakoyi rozv yazku ne isnuye Zvidsi viplivaye sho u Rozenblata kilkist A elementiv dorivnyuye kilkosti stimuliv navchalnih prikladiv a ne kilkosti vhodiv zbizhnist za Rozenblatom ce ne stabilizaciya vag a nayavnist vsih neobhidnih klasifikacij tobto po suti vidsutnist pomilok Eksponencijne zrostannya kilkosti prihovanih elementiv Yaksho vagovi koeficiyenti do elementiv prihovanogo sharu A elementiv fiksovano to neobhidno shobi kilkist elementiv prihovanogo sharu abo yihnya skladnist eksponencijno zrostala zi zrostannyam rozmirnosti zadachi kilkosti receptoriv Vidtak vtrachayetsya yihnya osnovna perevaga zdatnist rozv yazuvati zadachi dovilnoyi skladnosti za dopomogoyu prostih elementiv Rozenblatom bulo pokazano sho kilkist A elementiv zalezhit lishe vid kilkosti stimuliv yaki treba rozpiznati div poperednij punkt abo teoremu zbizhnosti perceptronu Takim chinom yaksho kilkist A elementiv ye fiksovanoyu to mozhlivist perceptronu do rozv yazannya zadach dovilnoyi skladnosti bezposeredno ne zalezhit vid zrostannya kilkosti receptoriv Taka pomilka pohodit vid nastupnoyi frazi Minskogo Pri doslidzhenni predikatu parnist mi bachili sho koeficiyenti mozhut zrostati zi zrostannyam R kilkosti tochok na zobrazhenni eksponencijno Krim togo Minskij doslidzhuvav i inshi predikati napriklad rivnist Ale vsi ci predikati ye dostatno specifichnimi zadachami na uzagalnennya a ne na rozpiznavannya abo prognozuvannya Tak napriklad shobi perceptron mig vikonuvati predikat parnist vin povinen skazati parna chi ni kilkist chornih tochok na chorno bilomu zobrazhenni a dlya vikonannya predikatu rivnist skazati rivna chi ni prava chastina zobrazhennya livij Yasno sho taki zadachi vihodyat za ramki zadach rozpiznavannya ta prognozuvannya i yavlyayut soboyu zadachi na uzagalnennya abo prosto na pidrahunok pevnih harakteristik Ce i bulo perekonlivo pokazano Minskim i ye obmezhennyam ne lishe perceptroniv ale j usih paralelnih algoritmiv yaki ne zdatni shvidshe za poslidovni algoritmi obchisliti taki predikati Tomu taki zavdannya obmezhuyut mozhlivosti vsih nejronnih merezh i perceptroniv zokrema ale ce niyak ne pov yazano z fiksovanimi zv yazkami pershogo sharu tomu sho po pershe mova jshla pro velichinu koeficiyentiv zv yazkiv drugogo sharu a po druge pitannya lishe v efektivnosti a ne v principovij mozhlivosti Tobto perceptron mozhna navchiti i ciyeyi zadachi ale obsyag pam yati ta shvidkist navchannya budut bilshimi nizh pri zastosuvanni prostogo poslidovnogo algoritmu Vvedennya zh u pershomu shari vagovih koeficiyentiv sho navchayutsya lishe pogirshit stan sprav bo vimagatime bilshogo chasu navchannya oskilki pereminni zv yazki mizh S ta A shvidshe pereshkodzhayut nizh spriyayut procesovi navchannya Prichomu pri pidgotovci perceptronu do zadachi rozpiznavannya stimuliv osoblivogo tipu dlya zberezhennya efektivnosti znadoblyatsya osoblivi umovi stohastichnogo navchannya sho bulo pokazano Rozenblatom v eksperimentah iz ru Mozhlivosti ta obmezhennya modeliDetalnishi vidomosti z ciyeyi temi vi mozhete znajti v statti ru Mozhlivosti modeli Priklad klasifikaciyi ob yektiv Zelena liniya mezha klasiv Sam Rozenblat rozglyadav perceptron persh za vse yak nastupnij vazhlivij krok u doslidzhenni ta vikoristanni nejronnih merezh a ne yak zavershenij variant mashini zdatnoyi misliti She v peredmovi do svoyeyi knigi vin vidpovidayuchi na kritiku vidznachav sho programa z doslidzhennya perceptrona pov yazana golovnim chinom ne z vinahodom pristroyiv sho volodiyut shtuchnim intelektom a z vivchennyam fizichnih struktur i nejrodinamichnih principiv Rozenblat zaproponuvav ryad psihologichnih testiv dlya viznachennya mozhlivostej nejromerezh eksperimenti z rozriznennya uzagalnennya rozpiznavannya poslidovnostej utvorennya abstraktnih ponyat formuvannya ta vlastivostej samosvidomosti tvorchosti uyavi ta inshi Deyaki z cih eksperimentiv daleki vid suchasnih mozhlivostej perceptroniv tomu yihnij rozvitok vidbuvayetsya bilshe filosofski v mezhah napryamu konekcionizmu Tim ne menshe dlya perceptroniv vstanovleno dva vazhlivih fakti sho znahodyat zastosuvannya u praktichnih zadachah mozhlivist klasifikaciyi ob yektiv i mozhlivist aproksimaciyi klasiv i funkcij Vazhlivoyu vlastivistyu perceptroiv ye yihnya zdatnist do navchannya prichomu za rahunok dosit prostogo j efektivnogo algoritmu div vishe Ostannim chasom doslidniki pochinayut zvertati uvagu same na originalnu versiyu perceptrona oskilki navchannya bagatosharovogo perceptrona za dopomogoyu metodu zvorotnogo poshirennya pomilki viyavilo istotni obmezhennya na shvidkist navchannya Sprobi navchati bagatosharovij perceptron metodom zvorotnogo poshirennya pomilok prizvodyat do eksponencijnogo zrostannya obchislyuvalnih vitrat Yaksho zh koristuvatisya metodom pryamogo poshirennya to obchislyuvalna skladnist algoritmu navchannya staye linijnoyu Ce dozvolyaye znyati problemu navchannya nejronnih merezh iz duzhe velikoyu kilkistyu vhodiv ta vihodiv a takozh mati dovilnu kilkist shariv merezhi perceptroniv Ponyattya pro znyattya proklyattya rozmirnosti mozhna prochitati u praci Ivanova A I Pidsvidomist shtuchnogo intelektu programuvannya avtomativ nejromerezhevoyi biometriyi movoyu yih navchannya Obmezhennya modeli Detalnishi vidomosti z ciyeyi temi vi mozhete znajti v statti en Deyaki zadachi yaki perceptron ne zdaten rozv yazati 1 2 peretvorennya grupi perenosiv 3 z yakoyi kilkosti chastin skladayetsya figura 4 vseredini yakogo ob yekta nemaye inshoyi figuri 5 yaka figura vseredini ob yektiv povtoryuyetsya dva razi 3 4 5 zavdannya na viznachennya zv yaznosti figur Sam Rozenblat vidiliv dva fundamentalni obmezhennya dlya trisharovih perceptroniv sho skladayutsya z odnogo S sharu odnogo A sharu ta R sharu vidsutnist u nih zdatnosti do uzagalnennya svoyih harakteristik na novi stimuli abo novi situaciyi a takozh nezdatnist analizuvati skladni situaciyi u zovnishnomu seredovishi shlyahom rozchlenuvannya yih na prostishi V 1969 roci Marvin Minskij ta Sejmur Pejpert opublikuvali knigu Perceptroni de matematichno pokazali sho perceptroni podibni do rozenblativskih principovo ne v zmozi vikonuvati bagato z tih funkcij yaki hotili b otrimati vid perceptroniv Do togo zh u toj chas teoriya paralelnih obchislen bula slabko rozvinenoyu a perceptron povnistyu vidpovidav principam takih obchislen Za velikim rahunkom Minskij pokazav perevagu poslidovnih obchislen pered paralelnimi v pevnih klasah zadach pov yazanih z invariantni predstavlennyam Jogo kritiku mozhna rozdiliti na tri temi Perceptroni mayut obmezhennya v zadachah pov yazanih z invariantnim predstavlennyam obraziv tobto nezalezhnim vid yihnogo polozhennya na sensornomu poli ta polozhennya shodo inshih figur Taki zadachi vinikayut napriklad yaksho nam potribno pobuduvati mashinu dlya chitannya drukovanih liter abo cifr tak shob cya mashina mogla rozpiznavati yih nezalezhno vid polozhennya na storinci tobto shob na rishennya mashini ne vplivali perenesennya obertannya roztyag stisk simvoliv abo yaksho nam potribno viznachiti zi skilkoh chastin skladayetsya figura abo chi znahodyatsya dvi figuri poruch chi ni Minskim bulo dovedeno sho cej tip zadach nemozhlivo povnocinno rozv yazati za dopomogoyu paralelnih obchislen u tomu chisli perceptronu Perceptroni ne mayut funkcionalnogo perevagi nad analitichnimi metodami napriklad statistichnimi v zadachah pov yazanih iz prognozuvannyam Tim ne menshe v deyakih vipadkah voni predstavlyayut prostishij i produktivnishij metod analizu danih Bulo pokazano sho deyaki zadachi v principi mozhe buti rozv yazano perceptronom ale voni mozhut vimagati nerealno velikogo chasu abo nerealno velikoyi operativnoyi pam yati Kniga Minskogo i Paperti istotno vplinula na rozvitok nauki pro shtuchnij intelekt tomu sho zmistila naukovij interes ta subsidiyi uryadovih organizacij SShA na inshij napryamok doslidzhen simvolnij pidhid u ShI Zastosuvannya perceptroniv Perceptron mozhe buti vikoristano napriklad dlya aproksimaciyi funkcij dlya zadachi prognozuvannya j ekvivalentnoyi yij zadachi rozpiznavannya obraziv sho vimagaye visokoyi tochnosti ta zadachi keruvannya agentami sho vimagaye visokoyi shvidkosti navchannya U praktichnih zadachah vid perceptrona vimagatimetsya mozhlivist viboru bilsh nizh z dvoh variantiv a otzhe na vihodi v nogo maye buti bilshe odnogo R elementa Yak pokazano Rozenblatom harakteristiki takih sistem ne vidriznyayutsya suttyevo vid harakteristik elementarnogo perceptrona Aproksimaciya funkcij Dokladnishe Teorema Cibenka Teorema Cibenka dovedena Dzhordzhem Cibenkom 1989 roku stverdzhuye sho shtuchna nejronna merezha pryamogo poshirennya z odnim prihovanim sharom mozhe aproksimuvati bud yaku neperervnu funkciyu bagatoh zminnih z bud yakoyu tochnistyu Umovami ye dostatnya kilkist nejroniv prihovanogo sharu vdalij pidbir w1 w2 wN a displaystyle mathbf w 1 mathbf w 2 dots mathbf w N mathbf alpha i 8 displaystyle mathbf theta de wi displaystyle mathbf w i vagi mizh vhidnimi nejronami i nejronami prihovanogo sharu a displaystyle mathbf alpha vagi mizh zv yazkami vid nejroniv prihovanogo sharu i vihidnim nejronom 8 displaystyle mathbf theta koeficiyent uperedzhenosti dlya nejroniv prihovanogo sharu Prognozuvannya ta rozpiznavannya obraziv Dokladnishe Zadacha rozpiznavannya obraziv Vzayemodiya intelektualnogo agenta iz seredovishem Vazhlivoyu chastinoyu takoyi sistemi ye zvorotni zv yazki U cih zavdannyah perceptronovi potribno vstanoviti prinalezhnist ob yekta do yakogos klasu za jogo parametrami napriklad za zovnishnim viglyadom formoyu siluetu Prichomu tochnist rozpiznavannya bagato v chomu zalezhatime vid predstavlennya vihidnih reakcij perceptronu Tut mozhlivi tri tipi koduvannya konfiguracijne pozicijne ta gibridne Pozicijne koduvannya za yakogo kozhnomu klasovi vidpovidaye svij R element daye tochnishi rezultati nizh inshi vidi Takij tip vikoristano napriklad u praci E Kussul ta in Perceptroni Rozenblata dlya rozpiznavannya rukopisnih cifr Odnak vono ye nezastosovnim u tih vipadkah koli kilkist klasiv ye znachnoyu napriklad kilka soten U takih vipadkah mozhna zastosovuvati gibridne konfiguracijno pozicijne koduvannya yak ce bulo zrobleno u praci Yakovleva Sistema rozpiznavannya ruhomih ob yektiv na bazi shtuchnih nejronnih merezh Keruvannya agentami U teoriyi shtuchnogo intelektu chasto rozglyadayut agentiv sho navchayutsya adaptuyutsya do dovkillya Pri comu v umovah neviznachenosti staye vazhlivim analizuvati ne lishe potochnu informaciyu a j zagalnij kontekst situaciyi v yaku potrapiv agent tomu tut zastosovuyut ru Krim togo v deyakih zadachah staye vazhlivim pidvishennya shvidkosti navchannya perceptrona napriklad za dopomogoyu modelyuvannya refrakternosti Pislya periodu vidomogo yak Zima shtuchnogo intelektu interes do kibernetichnim modelej vidrodivsya v 1980 h rokah oskilki prihilniki simvolnogo pidhodu v ShI tak i ne zmogli pidibratisya do virishennya pitan pro Rozuminnya i Znachennya cherez sho mashinnij pereklad i tehnichne rozpiznavannya obraziv dosi volodiyut neusuvnimi nedolikami Sam Minskij publichno visloviv zhal sho jogo vistup zavdav shkodi koncepciyi perceptroniv hocha kniga lishe pokazuvala nedoliki okremo vzyatogo pristroyu ta deyakih jogo variacij Ale v osnovnomu ShI stav sinonimom simvolnogo pidhodu sho virazhavsya u skladanni vse skladnishih program dlya komp yuteriv sho modelyuyut skladnu diyalnist mozku lyudini Bagatoklasovij perceptronYak i bilshist inshih metodik dlya trenuvannya linijnih klasifikatoriv perceptron prirodno uzagalnyuyetsya do en Tut vhid x displaystyle x ta vihid y displaystyle y vityaguyutsya z dovilnih mnozhin Funkciya predstavlennya oznak f x y displaystyle f x y vidobrazhuye kozhnu mozhlivu paru vhodiv vihodiv na skinchennovimirnij dijsnoznachnij vektor oznak Yak i ranishe vektor oznak mnozhitsya na vagovij vektor w displaystyle w ale teper otrimuvanij bal vikoristovuyetsya dlya viboru sered bagatoh mozhlivih vihodiv y argmaxy f x y w displaystyle hat y operatorname argmax y f x y cdot w Navchannya znov taki prohodit zrazkami peredbachuyuchi vihid dlya kozhnogo zalishayuchi vagi nezminnimi koli peredbachenij vihid vidpovidaye cilovomu i zminyuyuchi yih koli ni Utochnennyam staye wt 1 wt f x y f x y displaystyle w t 1 w t f x y f x hat y Ce formulyuvannya bagatoklasovogo zvorotnogo zv yazku zvoditsya do originalnogo perceptronu koli x displaystyle x ye dijsnoznachnim vektorom y displaystyle y obirayetsya z 0 1 displaystyle 0 1 a f x y yx displaystyle f x y yx Dlya deyakih zadach mozhlivo obirati predstavlennya vhodiv vihodiv ta oznaki takim chinom sho argmaxyf x y w displaystyle mathrm argmax y f x y cdot w bude mozhlivo znahoditi efektivno navit yaksho y displaystyle y vibirayetsya z duzhe velikoyi abo navit neskinchennoyi mnozhini Ostannimi rokami perceptronove trenuvannya stalo populyarnim v galuzi obrobki prirodnoyi movi dlya takih zadach yak rozmichuvannya chastin movi ta sintaksichnij analiz Div takozhBiokomp yuting Bayesova merezha Kognitron Istoriya shtuchnogo intelektu PaternPrimitki Mark 1 zokrema buv sistemoyu sho imituye lyudske oko ta jogo vzayemodiyu z mozkom Trisharovi za klasifikaciyeyu prijnyatoyu u Rozenblata i dvosharovi za suchasnoyu sistemoyu poznachen z tiyeyu osoblivistyu sho pershij shar ne navchayetsya V mezhah simvolnogo pidhodu pracyuyut nad stvorennyam ekspertnih sistem organizaciyeyu baz znan analizom tekstiv Formalno A elementi yak i R elementi yavlyayut soboyu sumatori z porogom tobto poodinoki nejroni Vikladennya v comu rozdili sprosheno z prichini skladnosti analizu na osnovi predikativ Predikat ye ekvivalentnim vhodovi lishe v okremomu vipadku lishe koli vin zalezhit vid odnogo argumentu ru vvazhaye cyu zadachu najskladnishoyu dlya provedennya giperploshini u prostori receptoriv Na pershih etapah rozvitku nauki pro shtuchnij intelekt yiyi zadacha rozglyadalasya v abstraktnomu sensi stvorennya sistem sho nagaduyut za rozumom lyudinu div Shtuchnij zagalnij intelekt Suchasni formulyuvannya zadach v ShI ye yak pravilo tochnishimi DzherelaRosenblatt Frank 1958 The Perceptron A Probabilistic Model for Information Storage and Organization in the Brain Cornell Aeronautical Laboratory Psychological Review v65 No 6 pp 386 408 angl Warren S McCulloch and Walter Pitts A logical calculus of the ideas immanent in nervous activity nedostupne posilannya z listopadaa 2019 angl Donald Olding Hebb The Organization of Behavior A Neuropsychological Theory 1 23 listopada 2012 u Wayback Machine angl Perceptrons Estebon html Perceptrons An Associative Learning Network nedostupne posilannya z lipnya 2019 angl Poyava perceptronu nedostupne posilannya z kvitnya 2019 ros Sistemi rozpiznavannya obraziv 26 sichnya 2010 u Wayback Machine ros Minskij M Pejpert S s 50 The Perceptron A Probabilistic Model for Information Storage and Organization in the Brain 18 lyutogo 2008 u Wayback Machine angl Rozenblatt F s 102 Fomin S V Berkinblit M B Matematicheskie problemy v biologii 21 grudnya 2009 u Wayback Machine ros Rozenblatt F s 158 162 Rozenblatt F s 162 163 Bryuhomickij Yu A Nejrosetevye modeli dlya sistem informacionnoj bezopasnosti 2005 ros Rozenblatt F s 81 Rozenblatt F s 200 Rozenblatt F s 82 Rozenblatt F s 83 Rozenblatt F s 93 Rozenblatt F s 230 Minskij Pejpert s 11 18 Rozenblatt F s 85 88 Rozenblatt F s 86 Hajkin S 2006 s 225 243 304 316 Uossermen F Nejrokompyuternaya tehnika Teoriya i praktika 1992 ros https web archive org web 20180621193945 https ieeexplore ieee org abstract document 8336337 Arhivovano21 chervnya 2018 u Wayback Machine Melnychuk S Yakovyn S Kuz M Emulation of logical functions NOT AND OR and XOR with a perceptron implemented using an information entropy function 2018 14th International Conference on Advanced Trends in Radioelecrtronics Telecommunications and Computer Engineering TCSET 2018 P 878 882 angl Bongard M M Problema uznavaniya M Fizmatgiz 1967 ros Minskij M Pejpert S s 59 Rozenblatt F s 101 Minskij Pejpert s 155 189 ne doslivno sprosheno dlya viraznosti Rozenblatt str 239 Rozenblatt str 242 Rozenblatt F s 18 Rozenblatt F s 70 77 Lekciya 3 Navchannya z uchitelem Rozpiznavannya obraziv 1 listopada 2011 u Wayback Machine ros GOST R 52633 5 2011 Zashita informacii Tehnika zashity informacii Avtomaticheskoe obuchenie nejrosetevyh preobrazovatelej biometriya kod dostupa ros Ivanov A I Podsoznanie iskusstvennogo intellekta programmirovanie avtomatov nejrosetevoj biometrii yazykom ih obucheniya 4 serpnya 2016 u Wayback Machine ros Minsky M L and Papert S A 1969 Perceptrons Cambridge MA MIT Press angl Minskij M Pejpert S s 76 98 Minskij M Pejpert S s 113 116 Minskij M Pejpert S s 192 214 Minskij Pejpert s 163 187 Minskij Pejpert s 153 162 Rozenblatt F s 219 224 Yakovlev S S Ispolzovanie principa rekurrentnosti Dzhordana v perceptrone Rozenblatta Zhurnal AVTOMATIKA I VYChISLITELNAYa TEHNIKA Riga 2009 1 lipnya 2017 u Wayback Machine Virtual Laboratory Wiki ros Yakovlev S S Investigation of Refractoriness principle in Recurrent Neural Networks Scientific proceedings of Riga Technical University Issue 5 Vol 36 RTU Riga 2008 P 41 48 Chitati 7 bereznya 2016 u Wayback Machine ros en 2002 Discriminative training methods for hidden Markov models Theory and experiments with the perceptron algorithm in Proceedings of the Conference on Empirical Methods in Natural Language Processing EMNLP 02 angl Literatura ru Problema uznavaniya M Nauka 1967 320 s ros Bryuhomickij Yu A Nejrosetevye modeli dlya sistem informacionnoj bezopasnosti Uchebnoe posobie Taganrog Izd vo TRTU 2005 160 s ros Mak Kallok U S en Logicheskoe ischislenie idej otnosyashihsya k nervnoj aktivnosti Avtomaty sb M 1956 S 363 384 ros Minskij M Pejpert S Perseptrony Perceptrons M Mir 1971 261 s ros Rozenblatt F Principy nejrodinamiki Perceptrony i teoriya mehanizmov mozga Principles of Neurodynamic Perceptrons and the Theory of Brain Mechanisms M Mir 1965 480 s ros Uossermen F Nejrokompyuternaya tehnika Teoriya i praktika Neural Computing Theory and Practice M Mir 1992 240 s ISBN 5 03 002115 9 ros Hajkin S Nejronnye seti Polnyj kurs Neural Networks A Comprehensive Foundation 2 e izd M Vilyams 2006 1104 s ISBN 0 13 273350 1 ros Yakovlev S S Sistema raspoznavaniya dvizhushihsya obektov na baze iskusstvennyh nejronnyh setej ITK NANB Minsk 2004 S 230 234 ros Kussul E Baidyk T Kasatkina L Lukovich V Perceptrony Rozenblatta dlya raspoznavaniya rukopisnyh cifr IEEE 2001 S 1516 1520 angl Stormo G D Schneider T D Gold L Ehrenfeucht A Ispolzovanie perceptrona dlya vydeleniya sajtov iniciacii v E coli Nucleic Acids Research 1982 S P 2997 3011 angl PosilannyaPerceptron Virtual Laboratory Wiki Arhiv originalu za 19 serpnya 2011 Procitovano 17 sichnya 2009 a href wiki D0 A8 D0 B0 D0 B1 D0 BB D0 BE D0 BD Cite web title Shablon Cite web cite web a Cite maye pustij nevidomij parametr description dovidka ros Poyavlenie perceptrona Arhiv originalu za 19 serpnya 2011 Procitovano 17 sichnya 2009 ros Ezhov A A Shumskij S A 2006 Nejrokompyuting i ego primeneniya v ekonomike i biznese INTUIT Arhiv originalu za 19 serpnya 2011 Procitovano 17 sichnya 2009 a href wiki D0 A8 D0 B0 D0 B1 D0 BB D0 BE D0 BD Cite web title Shablon Cite web cite web a Cite maye pustij nevidomij parametr description dovidka ros Redko V G 1999 Iskusstvennye nejronnye seti Arhiv originalu za 19 serpnya 2011 Procitovano 17 sichnya 2009 ros Yakovlev S S 2006 Linejnost i invariantnost v iskusstvennyh nejronnyh setyah Arhiv originalu pdf za 19 serpnya 2011 Procitovano 17 sichnya 2009 ros Estebon M D Tech V 1997 Perceptrons An Associative Learning Network angl Arhiv originalu za 19 serpnya 2011 Procitovano 17 sichnya 2009 angl Berkinblit M B 1993 Nejronnye seti Glava Perceptrony i drugie obuchayushiesya klassifikacionnye sistemy Arhiv originalu za 19 serpnya 2011 Procitovano 17 sichnya 2009 ros SergeiAlderman ANN rtf 26 bereznya 2010 u Wayback Machine Flood An Open Source Neural Networks C Library 5 zhovtnya 2011 u Wayback Machine Chapter 3 Weighted networks the perceptron 24 serpnya 2007 u Wayback Machine and Chapter 4 Perceptron learning 24 serpnya 2007 u Wayback Machine of Neural Networks A Systematic Introduction 22 sichnya 2016 u Wayback Machine by Raul Rojas ISBN 978 3 540 60505 8 angl Pithy explanation of the update rule 31 zhovtnya 2008 u Wayback Machine by Charles Elkan angl History of perceptrons 14 sichnya 2009 u Wayback Machine angl Mathematics of perceptrons 28 zhovtnya 2008 u Wayback Machine angl angl