Ця стаття потребує додаткових для поліпшення її . |
Теорема збіжності перцептрона — це теорема, описана і доведена Френком Розенблатом (за участю Блока, Джозефа, Кестена та інших дослідників, що працювали разом з ним). Вона показує, що елементарний перцептрон, що навчається за методом корекції помилки (незалежно від того з квантуванням або без нього), а також незалежно від початкового стану вагових коефіцієнтів, послідовності появи стимулів — завжди приведе до досягнення вирішення за скінченний проміжок часу. Ф. Розенблат також довів низку допоміжних теорем, наслідки яких говорять про умови та архітектуру нейронної мережі та методи навчання для успішного виконання поставленої задачі.
Теореми існування вирішення для універсальних перцептронів
Перш ніж довести основну теорему збіжності перцептрона, Ф. Розенблат показав, що архітектура перцептрона достатня для того, щоб отримати рішення будь-якої мислимого завдання на класифікацію, тобто тим самим перцептрон являє собою «універсальну систему» для класифікації.
Теорема 1. Дана сітківка з двома станами вхідних сигналів (Так і Ні). Тоді клас елементарних перцептронів, для яких існує вирішення для будь-якої класифікації C(W) можливих середовищ W, не є порожнім. |
Далі Ф. Розенблат показав і довів у теоремі 2, що необхідними, але ще не достатніми умовами існування рішення, є такі:
- Кожен стимул повинен збуджувати щонайменше один А-елемент;
- Не повинно існувати ніякої підпослідовності стимулів, яка містить щонайменше по одному стимулу кожного класу, яка призводила б до однакового коефіцієнта зміщення для кожного А-елемента в множині А-елементів, що реагують на цю підпослідовність.
Друга умова потребує пояснення. Коефіцієнтом зміщення для А-елемента Ф. Розенблат називав відношення числа стимулів у навчальній вибірці, які відносяться до одного класу, і збуджують даний А — елемент, до числа стимулів, що відносяться до іншого класу, але також збуджують цей же А-елемент. Порушення другої умови робить відношення постійним для А-елементів, що реагують на стимули з такої підпослідовності появи стимулів на входах перцептрона. І через це, як доводиться в теоремі 2, щонайменше один зі стимулів буде класифікований неправильно.
Розенблат також показав, що цих умов буде недостатньо, на наступному прикладі:
Стимул | Збуджує А-елементи | Належить до класу |
---|---|---|
№ 1 | № 1 | № 1 (позитивного) |
№ 2 | № 2 | № 1 (позитивного) |
№ 3 | № 3 та № 4 | № 1 (позитивного) |
№ 4 | № 1, № 2 і № 3 | № 2 (негативного) |
№ 5 | № 1, № 2 та № 4 | № 2 (негативного) |
А — елемент | Коефіцієнт зміщення |
---|---|
№ 1 | 1/2 |
№ 2 | 1/2 |
№ 3 | 1/1 |
№ 4 | 1/1 |
Цей приклад задовольняє двом необхідним умовам, але з усім тим не має вирішення. Щоб отримати потрібну класифікацію для першого класу, потрібно:
- Для правильної класифікації стимулу № 1, щоб вага А-елемента № 1 була позитивною;
- Для правильної класифікації стимулу № 2, щоб вага А-елемента № 2 була позитивною;
- Для правильної класифікації стимулу № 3, щоб сума вагових коефіцієнтів А-елементів № 3 та № 4 була позитивною.
Щоб отримати потрібну класифікацію для другого класу, потрібно:
- Для правильної класифікації стимулу № 4, щоб сума вагових коефіцієнтів А-елементів № 1, № 2 і № 3 була негативною;
- Для правильної класифікації стимулу № 5, щоб сума вагових коефіцієнтів А-елементів № 1, № 2 і № 4 була негативною.
Звідси видно, що якщо вагові коефіцієнти для А-елементів № 1 і № 2 позитивні, і хоча б один з вагових коефіцієнтів для А-елементів № 3 та № 4 позитивний, то тим самим ми можемо домогтися, щоб сума ваг № 1(+), № 2(+) та № 3(-) була негативною, але в такому разі вага № 4 повинна залишатися позитивною, і тоді сума № 1(+), № 2(+) і № 4(+) ніяк не може бути від'ємною. Таким чином, або стимул № 4, або стимул № 5 будуть класифіковані неправильно. Це й називається відсутність сходження при вирішенні класифікації.
У чистому вигляді достатні умови Розенблат описує тільки пізніше в такій теоремі, запропонованій Джозефом:
Теорема 2. Дано елементарний перцептрон і класифікація C(W). Необхідна та достатня умова того, що методом корекції помилок за скінченний час і з довільного початкового стану може бути досягнуто рішення, зводиться до того, що не повинен існувати ненульовий вектор , такий, що для всіх і показник зміщення |
але оскільки це математичне представлення, хоча й елегантніше, але з усім тим воно мало що говорить про те які потрібно виконати умови в термінах архітектури перцептрона, Розенблат спершу доводить наступну теорему:
Теорема 3. Дано елементарний перцептрон, простір стимулів W і якась класифікація C(W). Тоді для існування вирішення для C(W) необхідно і достатньо, щоб існував деякий вектор u, що лежить в тому ж ортанті, що і C(W), і деякий вектор x, такий, що Gx = u. |
Але практично значимими є три наслідки з цієї теореми:
- Якщо [ru] особлива, тобто матриця, яка не має зворотної (це відбувається коли її детермінант дорівнює нулю), то може існувати деяка класифікація, яка не має рішення. У цьому випадку збіжності при навчанні перцептрона не буде.
- Якщо число стимулів у навчальної вибірки більше числа А-елементів в елементарного перцептрона, то також існує деяка класифікація, яка не має рішення. Таким чином, визначається верхня межа числа формальних нейронів в прихованому шарі. Однак практично достатньо мати 60-80 % (і не менше 50 %) від цього числа залежно від числа класів на які потрібно класифікувати стимули.
- Імовірність існування рішення для випадково вибраної класифікації при збільшенні числа стимулів (що безпосередньо, згідно з другим наслідком, веде до збільшення числа А-елементів) прямує до нуля. Практично це означає, що за наявності у перцептрона порядку 1000 А-елементів, ймовірність того, що його G-матриця буде особливою близька до нуля, а при збільшенні числа А-елементів така ймовірність прямує до нуля.
Основна теорема збіжності
В основній теоремі збіжності Ф. Розенблат показує, що існуючі можливі рішення можуть бути досягнуті саме при застосуванні алгоритму навчання з корекцією помилки:
Теорема 4. Дано елементарний перцептрон, простір стимулів W і деяка класифікація C(W), для якої відомо, що рішення існує. Припустимо, що усі стимули з W з'являються в будь-якій послідовності, але за умови, що кожен стимул з'являється повторно через деякий скінченний інтервал часу. Тоді процес навчання з корекцією помилок (з квантуванням або без квантування підкріплення), що починається з довільного початкового стану, завжди приведе до досягнення рішення для C(W) протягом скінченного проміжку часу. При цьому всі вхідні сигнали до R - елементів досягнуть значення, принаймні рівного деякій довільній величині d> = 0. |
Додаткові теореми збіжності
У ряді наступних теорем Ф. Розенблат показує якими характеристиками повинен володіти алгоритм навчання, щоб він міг досягти рішення.
- У теоремі 5 він показує, що метод корекції помилок з випадковим знаком підкріплення, хоча і поступається методу з корекцією помилок по швидкості, але, з усім тим, може досягти рішення.
- У теоремі 6 доведено, що при S-керованому навчанні може бути отримане рішення, але воно може виявитися нестабільним. А при R-керованому навчанні взагалі не має сенсу говорити про ймовірність збіжності процесу навчання.
- У теоремі 7 показано, що метод корекції випадковими збуреннями (по суті, метод корекції без вчителя), також поступаючись за швидкістю методом з корекцією помилок, дозволяє отримати рішення за скінченний час.
- У теоремі 8 Показується, що для (перцептрон в якому ваги всіх активних зв'язків спершу змінюються на рівну величину, а потім з вагів всіх зв'язків віднімається інша величина, що дорівнює повній зміні ваг всіх активних зв'язків, поділеній на число всіх зв'язків) може існувати рішення, якого він досягти не зможе.
Критика Мінського
Марвін Мінський навів низку своїх доказів теореми збіжності перцептрона. Але його докази дозволили судити про величину вагових коефіцієнтів, що істотно для зберігання їх в пам'яті комп'ютера, а також про кількість необхідних корекцій вагових коефіцієнтів, що важливо при оцінці швидкості навчання перцептрона.
Для оцінки ємності пам'яті необхідної для зберігання вагових коефіцієнтів, при вирішенні навчанні предиката «парність», Мінський виходив з нижченаведених міркувань. Для будь-якого однакового подання коефіцієнтів необхідно по біт на кожен, де — кількість точок на сітківці перцептрона. Це випливає з того, що таким має бути вага найбільш великого коефіцієнта, щоб виконувалися умови існування рішення. Максимальна необхідна кількість коефіцієнтів буде . Отже, буде потрібно біт. Якщо порівнювати це число з тим, що вийде у разі, якщо запам'ятати всі можливі зображення, які можуть бути нанесені на сітківку перцептрона, то знадобиться ємність = . За таких припущень виходить, що для вагових коефіцієнтів перцептрона ємності потрібно практично стільки ж, як для запам'ятовування всіх можливих зображень.
Для оцінки числа ітерацій, потрібних елементарному перцептрону, щоб визначити вагові коефіцієнти, Мінський проаналізував навчання предиката «парність», який є одним з найбільш теоретично складних для перцептрона. При цьому він узяв перцептрон з найменшим можливим числом А-елементів, а отже, і з найменшим числом вагових коефіцієнтів. І для цього випадку він визначив нижньою і верхньою межами числа корекцій: , де — кількість точок на сітківці перцептрона.
Тому критика Мінського щодо збіжності перцептрона вказує на те, що:
- Якщо потрібно працювати з досить великою роздільною здатністю зображень, наприклад 800х600 пікселів,
- і потрібно вирішити якусь математичну функцію, яка залежить цілком від усіх точок (наприклад, предикат парність, про який не можна сказати парний він чи ні поки не будуть проаналізовані всі точки простору послідовно)
то перцептрон потребує нереальної великої пам'яті комп'ютера і тривалого часу навчання, навіть попри те, що теорема збіжності говорить про скінченне число ітерацій.
Тут, слід додати тільки те, що для більшості задач розпізнавання реальних зображень не потрібно знаходити такі математичні функції, а відмінні риси зображень різного класу можуть бути знайдені враховуючи лише маленьку область, яка, наприклад, складається з 20 точок з 8000 можливих. А побудувавши такі предикати від 20 елементів (предикати відповідають А-елементам) можна не враховуючи всі особливості зображення, класифікувати їх за класами з огляду на лише деякі з них (як правило число таких предикатів, як було сказано вище знаходяться в межах 60-80 % від числа всіх зображень). Це вказує на той факт, що кількість осмислених зображень в певній розмірності на кілька порядків менше, ніж число всіх можливих зображень. І якщо не вимагати виконання певної математичної функції (зсув, поворот) над такими осмисленими зображеннями, стає ясним, що перцептрон може не тільки оптимально запам'ятовувати для класифікації ряд зображень, але і працювати у певному сенсі зображень із втратами, і точно відносити їх до потрібного класу.
Див. також
Вікіпедія, Українська, Україна, книга, книги, бібліотека, стаття, читати, завантажити, безкоштовно, безкоштовно завантажити, mp3, відео, mp4, 3gp, jpg, jpeg, gif, png, малюнок, музика, пісня, фільм, книга, гра, ігри, мобільний, телефон, android, ios, apple, мобільний телефон, samsung, iphone, xiomi, xiaomi, redmi, honor, oppo, nokia, sonya, mi, ПК, web, Інтернет
Cya stattya potrebuye dodatkovih posilan na dzherela dlya polipshennya yiyi perevirnosti Bud laska dopomozhit udoskonaliti cyu stattyu dodavshi posilannya na nadijni avtoritetni dzherela Zvernitsya na za poyasnennyami ta dopomozhit vipraviti nedoliki Material bez dzherel mozhe buti piddano sumnivu ta vilucheno Teorema zbizhnosti perceptrona ce teorema opisana i dovedena Frenkom Rozenblatom za uchastyu Bloka Dzhozefa Kestena ta inshih doslidnikiv sho pracyuvali razom z nim Vona pokazuye sho elementarnij perceptron sho navchayetsya za metodom korekciyi pomilki nezalezhno vid togo z kvantuvannyam abo bez nogo a takozh nezalezhno vid pochatkovogo stanu vagovih koeficiyentiv poslidovnosti poyavi stimuliv zavzhdi privede do dosyagnennya virishennya za skinchennij promizhok chasu F Rozenblat takozh doviv nizku dopomizhnih teorem naslidki yakih govoryat pro umovi ta arhitekturu nejronnoyi merezhi ta metodi navchannya dlya uspishnogo vikonannya postavlenoyi zadachi Teoremi isnuvannya virishennya dlya universalnih perceptronivLogichna shema elementarnogo perceptrona Vagi S A zv yazkiv mozhut mati znachennya 1 1 abo 0 tobto vidsutnist zv yazku Vagi A R zv yazkiv W mozhut buti bud yakimi Persh nizh dovesti osnovnu teoremu zbizhnosti perceptrona F Rozenblat pokazav sho arhitektura perceptrona dostatnya dlya togo shob otrimati rishennya bud yakoyi mislimogo zavdannya na klasifikaciyu tobto tim samim perceptron yavlyaye soboyu universalnu sistemu dlya klasifikaciyi Teorema 1 Dana sitkivka z dvoma stanami vhidnih signaliv Tak i Ni Todi klas elementarnih perceptroniv dlya yakih isnuye virishennya dlya bud yakoyi klasifikaciyi C W mozhlivih seredovish W ne ye porozhnim Dali F Rozenblat pokazav i doviv u teoremi 2 sho neobhidnimi ale she ne dostatnimi umovami isnuvannya rishennya ye taki Kozhen stimul povinen zbudzhuvati shonajmenshe odin A element Ne povinno isnuvati niyakoyi pidposlidovnosti stimuliv yaka mistit shonajmenshe po odnomu stimulu kozhnogo klasu yaka prizvodila b do odnakovogo koeficiyenta zmishennya dlya kozhnogo A elementa v mnozhini A elementiv sho reaguyut na cyu pidposlidovnist Druga umova potrebuye poyasnennya Koeficiyentom zmishennya dlya A elementa F Rozenblat nazivav vidnoshennya n i n i displaystyle n i n i chisla stimuliv u navchalnij vibirci yaki vidnosyatsya do odnogo klasu i zbudzhuyut danij A element do chisla stimuliv sho vidnosyatsya do inshogo klasu ale takozh zbudzhuyut cej zhe A element Porushennya drugoyi umovi robit vidnoshennya n i n i displaystyle n i n i postijnim dlya A elementiv sho reaguyut na stimuli z takoyi pidposlidovnosti poyavi stimuliv na vhodah perceptrona I cherez ce yak dovoditsya v teoremi 2 shonajmenshe odin zi stimuliv bude klasifikovanij nepravilno Rozenblat takozh pokazav sho cih umov bude nedostatno na nastupnomu prikladi Stimul Zbudzhuye A elementi Nalezhit do klasu 1 1 1 pozitivnogo 2 2 1 pozitivnogo 3 3 ta 4 1 pozitivnogo 4 1 2 i 3 2 negativnogo 5 1 2 ta 4 2 negativnogo A element Koeficiyent zmishennya 1 1 2 2 1 2 3 1 1 4 1 1 Cej priklad zadovolnyaye dvom neobhidnim umovam ale z usim tim ne maye virishennya Shob otrimati potribnu klasifikaciyu dlya pershogo klasu potribno Dlya pravilnoyi klasifikaciyi stimulu 1 shob vaga A elementa 1 bula pozitivnoyu Dlya pravilnoyi klasifikaciyi stimulu 2 shob vaga A elementa 2 bula pozitivnoyu Dlya pravilnoyi klasifikaciyi stimulu 3 shob suma vagovih koeficiyentiv A elementiv 3 ta 4 bula pozitivnoyu Shob otrimati potribnu klasifikaciyu dlya drugogo klasu potribno Dlya pravilnoyi klasifikaciyi stimulu 4 shob suma vagovih koeficiyentiv A elementiv 1 2 i 3 bula negativnoyu Dlya pravilnoyi klasifikaciyi stimulu 5 shob suma vagovih koeficiyentiv A elementiv 1 2 i 4 bula negativnoyu Zvidsi vidno sho yaksho vagovi koeficiyenti dlya A elementiv 1 i 2 pozitivni i hocha b odin z vagovih koeficiyentiv dlya A elementiv 3 ta 4 pozitivnij to tim samim mi mozhemo domogtisya shob suma vag 1 2 ta 3 bula negativnoyu ale v takomu razi vaga 4 povinna zalishatisya pozitivnoyu i todi suma 1 2 i 4 niyak ne mozhe buti vid yemnoyu Takim chinom abo stimul 4 abo stimul 5 budut klasifikovani nepravilno Ce j nazivayetsya vidsutnist shodzhennya pri virishenni klasifikaciyi U chistomu viglyadi dostatni umovi Rozenblat opisuye tilki piznishe v takij teoremi zaproponovanij Dzhozefom Teorema 2 Dano elementarnij perceptron i klasifikaciya C W Neobhidna ta dostatnya umova togo sho metodom korekciyi pomilok za skinchennij chas i z dovilnogo pochatkovogo stanu mozhe buti dosyagnuto rishennya zvoditsya do togo sho ne povinen isnuvati nenulovij vektor X displaystyle X takij sho dlya vsih i pokaznik zmishennya b i X 0 displaystyle b i X 0 ale oskilki ce matematichne predstavlennya hocha j elegantnishe ale z usim tim vono malo sho govorit pro te yaki potribno vikonati umovi v terminah arhitekturi perceptrona Rozenblat spershu dovodit nastupnu teoremu Teorema 3 Dano elementarnij perceptron prostir stimuliv W i yakas klasifikaciya C W Todi dlya isnuvannya virishennya dlya C W neobhidno i dostatno shob isnuvav deyakij vektor u sho lezhit v tomu zh ortanti sho i C W i deyakij vektor x takij sho Gx u Ale praktichno znachimimi ye tri naslidki z ciyeyi teoremi Yaksho ru osobliva tobto matricya yaka ne maye zvorotnoyi ce vidbuvayetsya koli yiyi determinant dorivnyuye nulyu to mozhe isnuvati deyaka klasifikaciya yaka ne maye rishennya U comu vipadku zbizhnosti pri navchanni perceptrona ne bude Yaksho chislo stimuliv u navchalnoyi vibirki bilshe chisla A elementiv v elementarnogo perceptrona to takozh isnuye deyaka klasifikaciya yaka ne maye rishennya Takim chinom viznachayetsya verhnya mezha chisla formalnih nejroniv v prihovanomu shari Odnak praktichno dostatno mati 60 80 i ne menshe 50 vid cogo chisla zalezhno vid chisla klasiv na yaki potribno klasifikuvati stimuli Imovirnist isnuvannya rishennya dlya vipadkovo vibranoyi klasifikaciyi pri zbilshenni chisla stimuliv sho bezposeredno zgidno z drugim naslidkom vede do zbilshennya chisla A elementiv pryamuye do nulya Praktichno ce oznachaye sho za nayavnosti u perceptrona poryadku 1000 A elementiv jmovirnist togo sho jogo G matricya bude osoblivoyu blizka do nulya a pri zbilshenni chisla A elementiv taka jmovirnist pryamuye do nulya Osnovna teorema zbizhnostiV osnovnij teoremi zbizhnosti F Rozenblat pokazuye sho isnuyuchi mozhlivi rishennya mozhut buti dosyagnuti same pri zastosuvanni algoritmu navchannya z korekciyeyu pomilki Teorema 4 Dano elementarnij perceptron prostir stimuliv W i deyaka klasifikaciya C W dlya yakoyi vidomo sho rishennya isnuye Pripustimo sho usi stimuli z W z yavlyayutsya v bud yakij poslidovnosti ale za umovi sho kozhen stimul z yavlyayetsya povtorno cherez deyakij skinchennij interval chasu Todi proces navchannya z korekciyeyu pomilok z kvantuvannyam abo bez kvantuvannya pidkriplennya sho pochinayetsya z dovilnogo pochatkovogo stanu zavzhdi privede do dosyagnennya rishennya dlya C W protyagom skinchennogo promizhku chasu Pri comu vsi vhidni signali do R elementiv dosyagnut znachennya prinajmni rivnogo deyakij dovilnij velichini d gt 0 Dodatkovi teoremi zbizhnostiU ryadi nastupnih teorem F Rozenblat pokazuye yakimi harakteristikami povinen voloditi algoritm navchannya shob vin mig dosyagti rishennya U teoremi 5 vin pokazuye sho metod korekciyi pomilok z vipadkovim znakom pidkriplennya hocha i postupayetsya metodu z korekciyeyu pomilok po shvidkosti ale z usim tim mozhe dosyagti rishennya U teoremi 6 dovedeno sho pri S kerovanomu navchanni mozhe buti otrimane rishennya ale vono mozhe viyavitisya nestabilnim A pri R kerovanomu navchanni vzagali ne maye sensu govoriti pro jmovirnist zbizhnosti procesu navchannya U teoremi 7 pokazano sho metod korekciyi vipadkovimi zburennyami po suti metod korekciyi bez vchitelya takozh postupayuchis za shvidkistyu metodom z korekciyeyu pomilok dozvolyaye otrimati rishennya za skinchennij chas U teoremi 8 Pokazuyetsya sho dlya perceptron v yakomu vagi vsih aktivnih zv yazkiv spershu zminyuyutsya na rivnu velichinu a potim z vagiv vsih zv yazkiv vidnimayetsya insha velichina sho dorivnyuye povnij zmini vag vsih aktivnih zv yazkiv podilenij na chislo vsih zv yazkiv mozhe isnuvati rishennya yakogo vin dosyagti ne zmozhe Kritika MinskogoMarvin Minskij naviv nizku svoyih dokaziv teoremi zbizhnosti perceptrona Ale jogo dokazi dozvolili suditi pro velichinu vagovih koeficiyentiv sho istotno dlya zberigannya yih v pam yati komp yutera a takozh pro kilkist neobhidnih korekcij vagovih koeficiyentiv sho vazhlivo pri ocinci shvidkosti navchannya perceptrona Dlya ocinki yemnosti pam yati neobhidnoyi dlya zberigannya vagovih koeficiyentiv pri virishenni navchanni predikata parnist Minskij vihodiv z nizhchenavedenih mirkuvan Dlya bud yakogo odnakovogo podannya koeficiyentiv neobhidno po R 1 displaystyle R 1 bit na kozhen de R displaystyle R kilkist tochok na sitkivci perceptrona Ce viplivaye z togo sho takim maye buti vaga najbilsh velikogo koeficiyenta shob vikonuvalisya umovi isnuvannya rishennya Maksimalna neobhidna kilkist koeficiyentiv bude 2 R displaystyle 2 R Otzhe bude potribno R 1 2 R displaystyle R 1 2 R bit Yaksho porivnyuvati ce chislo z tim sho vijde u razi yaksho zapam yatati vsi mozhlivi zobrazhennya yaki mozhut buti naneseni na sitkivku perceptrona to znadobitsya yemnist R 2 R 1 displaystyle R 2 R 1 Za takih pripushen vihodit sho dlya vagovih koeficiyentiv perceptrona yemnosti potribno praktichno stilki zh yak dlya zapam yatovuvannya vsih mozhlivih zobrazhen Dlya ocinki chisla iteracij potribnih elementarnomu perceptronu shob viznachiti vagovi koeficiyenti Minskij proanalizuvav navchannya predikata parnist yakij ye odnim z najbilsh teoretichno skladnih dlya perceptrona Pri comu vin uzyav perceptron z najmenshim mozhlivim chislom A elementiv a otzhe i z najmenshim chislom vagovih koeficiyentiv I dlya cogo vipadku vin viznachiv nizhnoyu i verhnoyu mezhami chisla korekcij 5 R lt n lt 10 R displaystyle 5 R lt n lt 10 R de R displaystyle R kilkist tochok na sitkivci perceptrona Tomu kritika Minskogo shodo zbizhnosti perceptrona vkazuye na te sho Yaksho potribno pracyuvati z dosit velikoyu rozdilnoyu zdatnistyu zobrazhen napriklad 800h600 pikseliv i potribno virishiti yakus matematichnu funkciyu yaka zalezhit cilkom vid usih tochok napriklad predikat parnist pro yakij ne mozhna skazati parnij vin chi ni poki ne budut proanalizovani vsi tochki prostoru poslidovno to perceptron potrebuye nerealnoyi velikoyi pam yati komp yutera i trivalogo chasu navchannya navit popri te sho teorema zbizhnosti govorit pro skinchenne chislo iteracij Tut slid dodati tilki te sho dlya bilshosti zadach rozpiznavannya realnih zobrazhen ne potribno znahoditi taki matematichni funkciyi a vidminni risi zobrazhen riznogo klasu mozhut buti znajdeni vrahovuyuchi lishe malenku oblast yaka napriklad skladayetsya z 20 tochok z 8000 mozhlivih A pobuduvavshi taki predikati vid 20 elementiv predikati vidpovidayut A elementam mozhna ne vrahovuyuchi vsi osoblivosti zobrazhennya klasifikuvati yih za klasami z oglyadu na lishe deyaki z nih yak pravilo chislo takih predikativ yak bulo skazano vishe znahodyatsya v mezhah 60 80 vid chisla vsih zobrazhen Ce vkazuye na toj fakt sho kilkist osmislenih zobrazhen v pevnij rozmirnosti na kilka poryadkiv menshe nizh chislo vsih mozhlivih zobrazhen I yaksho ne vimagati vikonannya pevnoyi matematichnoyi funkciyi zsuv povorot nad takimi osmislenimi zobrazhennyami staye yasnim sho perceptron mozhe ne tilki optimalno zapam yatovuvati dlya klasifikaciyi ryad zobrazhen ale i pracyuvati u pevnomu sensi zobrazhen iz vtratami i tochno vidnositi yih do potribnogo klasu Div takozhPerceptron Teorema Cibenka