Рефлексний агент — інтелектуальний агент, що діє на основі поточного акту сприйняття, ігноруючи всю іншу історію актів сприйняття. Цей термін є одним з фундаментальних в штучному інтелекті.
Найпростішим видом агента є простий рефлексний агент.
Дія згідно з правилом
Ця стаття містить правописні, лексичні, граматичні, стилістичні або інші мовні помилки, які треба виправити. (грудень 2016) |
Люди використовують велику кількість зв'язків, причому деякі з них являють собою складні відгуки, засвоєні в результаті навчання (як при керуванні автомобіля), а інші є вродженими рефлексами (такими як моргання, яке відбувається при наближенні до ока стороннього предмета).
Загальніший і гнучкіший підхід полягає в тому, щоб спочатку створити інтерпретатор загального призначення для правил умова-дія, а потім визначити набори правил для конкретної проблемного середовища.
На рис. 1 наведена структура такої спільної програми в схематичній формі й показано, яким чином правила умова-дія дозволяють агенту створити зв'язок від сприйняття до дії. Програма цього агента, яка також є дуже простою, приведена в лістингу 1. Функція Interpret-Input виробляє абстрагований опис поточного стану за результатами сприйняття, а функція Rule-Match повертає перше правило з множини правил, яке відповідає заданому опису стану. Слід зазначити, що наведений тут виклад в термінах «правил» і «відповідностей» є чисто концептуальним; фактичні реалізації можуть бути настільки простими, як сукупність логічних елементів, що реалізують логічну схему.
Лістинг 1. Програма простого рефлексного агента, який діє згідно з правилом, умова якого відповідає поточному стану, який визначається результатом сприйняття
function Simple-Reflex-Agent(percept) returns action static: rules, множина правил умова-дія state ← Interpret-Input(percept) rule ← Rule-Match(state, rules) action ← Rule-Action[rule] return action
Характеристики
Прості рефлексні агенти надзвичайно прості, але досить обмежені в інтелекті. Агент, програма якого наведена в лістингу 2, працює, тільки якщо правильне рішення може бути прийняте на основі виключно поточного сприйняття, інакше кажучи, тільки якщо середовище є повністю спостережуваним.
Взаємодія агента і середовища
Найефективніший спосіб організації роботи в умовах часткової спостережуваності полягає в тому, щоб агент відстежував ту частину світу, яка сприймається ним в поточний момент. Це означає, що агент повинен підтримувати внутрішній стан, що залежить від історії актів сприйняття і тому відображає принаймні деякі з не спостережуваних аспектів поточного стану.
Для забезпечення можливості оновлення цієї внутрішньої інформації про стан протягом часу необхідно, щоб в програмі агента були закодовані знання двох видів. По-перше, потрібна певна інформація про те, як середовище змінюється незалежно від агента. По-друге, потрібна певна інформація про те, як впливають на світ власні дії агента.
Ці знання, про те, як реагує середовище називаються моделлю світу. Агент, в якому використовується така модель, називається агентом, заснованим на моделі.
На рис. 2 наведена структура рефлексного агента, що діє з урахуванням внутрішнього стану, і показано, як поточне сприйняття комбінується з колишнім внутрішнім станом для вироблення оновленого опису поточного стану. Програма такого агента приведена в лістингу 2. В цьому лістингу інтерес представляє функція Update-State, яка відповідає за створення нового опису внутрішнього стану. Ця функція не тільки інтерпретує результати нового сприйняття у світлі існуючих знань про стан, але і використовує інформацію про те, як змінюється середовище, для стеження за невидимими частинами світу, тому повинна враховувати інформацію про те, як дії агента впливають на стан світу.
Лістинг 2. Рефлексний агент, заснований на моделі, який стежить за поточним станом світу з використанням внутрішньої моделі, потім вибирає дію таким же чином, як і простий рефлексний агент
function Reflex-Agent-With-State(percept) returns action static: state, опис поточного стану світу rules, множина правил умова-дія action, остання за часом дія; спочатку не визначено state ← Update-State(state, action, percept) rule ← Rule-Match(state, rules) action ← Rule-Action[rule] return action
Агенти, засновані на цілі
Агенту потрібен не тільки опис поточного стану, але і свого роду інформація про мету, яка описує бажані ситуації, такі як, наприклад, доставка пасажира в місце призначення. Програма агента може комбінувати цю інформацію з інформацією про результати можливих дій (з такою ж інформацією, як і та, що використовувалася при оновленні внутрішнього стану рефлексного агента) для вибору дій, що дозволяють досягти цієї мети.
Структура агента, що діє на основі мети, показана на рис. 3.
Іноді задача вибору дії на основі мети вирішується просто, коли досягнення мети негайно стає результатом єдиної дії, а іноді ця задача стає складнішою, і агенту потрібно розглянути довгі послідовності дій, щоб знайти спосіб досягнення мети. Підобласті штучного інтелекту, присвячені виробленню послідовності дій, дозволяючи агенту досягти цілі, є пошук та планування.
Станом світу, а також за множиною цілей, які він намагається досягти, і вибирає дію, що дозволяє (в кінцевому підсумку) домогтися досягнення цих цілей.
Слід враховувати, що процедура прийняття рішень такого роду має фундаментальні відмінності від описаної вище процедури застосування правил умова-дія, оскільки в ній доводиться розмірковувати про майбутнє, відповідаючи на два питання: «Що станеться, якщо я зроблю те-то і те-то?» і «Чи дозволить це мені досягти задоволення?». В проєктах рефлексних агентів така інформація не представлена явно, оскільки вбудовані правила встановлюють безпосередню відповідність між сприйняттями й діями.
Хоча на перший погляд здається, що агент, заснований на цілі, менш ефективний, він є гнучкішим, оскільки знання, на які спираються його рішення, представлені явно і можуть бути модифіковані.
Агенти, засновані на корисності
Оскільки поняття «задоволеності» не є зовсім науковим, частіше застосовується термінологія, згідно з якою стан світу більш детально визначений в порівнянні з іншим, розглядається як той, що має вищу корисність для агента.
Стан світу використовується поряд з функцією корисності, яка вимірює переваги агента стосовно станів світу. Потім агент вибирає дію, яка веде до найкращої очікуваної корисності. Для обчислення очікуваної корисності виконується усереднення по всіх можливих результуючих станах з урахуванням коефіцієнта, що визначає ймовірність кожного результату.
Функція корисності відображає стан (або послідовність станів) на вагове число, яке позначає відповідний ступінь задоволеності агента. Повна специфікація функції корисності забезпечує можливість приймати раціональні рішення в описаних нижче двох випадках, коли цього не дозволяють зробити цілі.
По-перше, якщо є конфліктуючі цілі, такі, що можуть бути досягнуті тільки деякі з них, то функція корисності дозволяє знайти прийнятний компроміс. По-друге, якщо є декілька цілей до яких може прагнути агент, але жодна з них не може бути досягнута з усією визначеністю, то функція корисності надає зручний спосіб зваженої оцінки ймовірності успіху з урахуванням важливості цілей.
Структура агента, що діє з урахуванням корисності, показана на рис. 4.
Порівняння різних агентів
Прості рефлексні агенти відповідають безпосередньо на акти сприйняття, тоді як рефлексні агенти, засновані на моделі, підтримують внутрішній стан, слідкуючи за тими аспектами середовища, котрі не прослідковуються в поточному акті сприйняття. Агенти, які діють на основі цілі, організують свої дії так, щоб досягнути своїх цілей. Агенти, які діють з урахуванням корисності, роблять спроби максимізувати свою очікувану «задоволеність».
Джерела
- С. Рассел, П. Норвіг «Штучний інтелект: сучасний підхід»
Вікіпедія, Українська, Україна, книга, книги, бібліотека, стаття, читати, завантажити, безкоштовно, безкоштовно завантажити, mp3, відео, mp4, 3gp, jpg, jpeg, gif, png, малюнок, музика, пісня, фільм, книга, гра, ігри, мобільний, телефон, android, ios, apple, мобільний телефон, samsung, iphone, xiomi, xiaomi, redmi, honor, oppo, nokia, sonya, mi, ПК, web, Інтернет
Refleksnij agent intelektualnij agent sho diye na osnovi potochnogo aktu sprijnyattya ignoruyuchi vsyu inshu istoriyu aktiv sprijnyattya Cej termin ye odnim z fundamentalnih v shtuchnomu intelekti Najprostishim vidom agenta ye prostij refleksnij agent Diya zgidno z pravilomCya stattya mistit pravopisni leksichni gramatichni stilistichni abo inshi movni pomilki yaki treba vipraviti Vi mozhete dopomogti vdoskonaliti cyu stattyu pogodivshi yiyi iz chinnimi movnimi standartami gruden 2016 Lyudi vikoristovuyut veliku kilkist zv yazkiv prichomu deyaki z nih yavlyayut soboyu skladni vidguki zasvoyeni v rezultati navchannya yak pri keruvanni avtomobilya a inshi ye vrodzhenimi refleksami takimi yak morgannya yake vidbuvayetsya pri nablizhenni do oka storonnogo predmeta Zagalnishij i gnuchkishij pidhid polyagaye v tomu shob spochatku stvoriti interpretator zagalnogo priznachennya dlya pravil umova diya a potim viznachiti nabori pravil dlya konkretnoyi problemnogo seredovisha Na ris 1 navedena struktura takoyi spilnoyi programi v shematichnij formi j pokazano yakim chinom pravila umova diya dozvolyayut agentu stvoriti zv yazok vid sprijnyattya do diyi Programa cogo agenta yaka takozh ye duzhe prostoyu privedena v listingu 1 Funkciya Interpret Input viroblyaye abstragovanij opis potochnogo stanu za rezultatami sprijnyattya a funkciya Rule Match povertaye pershe pravilo z mnozhini pravil yake vidpovidaye zadanomu opisu stanu Slid zaznachiti sho navedenij tut viklad v terminah pravil i vidpovidnostej ye chisto konceptualnim faktichni realizaciyi mozhut buti nastilki prostimi yak sukupnist logichnih elementiv sho realizuyut logichnu shemu Listing 1 Programa prostogo refleksnogo agenta yakij diye zgidno z pravilom umova yakogo vidpovidaye potochnomu stanu yakij viznachayetsya rezultatom sprijnyattya function Simple Reflex Agent percept returns action static rules mnozhina pravil umova diya state Interpret Input percept rule Rule Match state rules action Rule Action rule return actionHarakteristikiProsti refleksni agenti nadzvichajno prosti ale dosit obmezheni v intelekti Agent programa yakogo navedena v listingu 2 pracyuye tilki yaksho pravilne rishennya mozhe buti prijnyate na osnovi viklyuchno potochnogo sprijnyattya inakshe kazhuchi tilki yaksho seredovishe ye povnistyu sposterezhuvanim Vzayemodiya agenta i seredovishaNajefektivnishij sposib organizaciyi roboti v umovah chastkovoyi sposterezhuvanosti polyagaye v tomu shob agent vidstezhuvav tu chastinu svitu yaka sprijmayetsya nim v potochnij moment Ce oznachaye sho agent povinen pidtrimuvati vnutrishnij stan sho zalezhit vid istoriyi aktiv sprijnyattya i tomu vidobrazhaye prinajmni deyaki z ne sposterezhuvanih aspektiv potochnogo stanu Dlya zabezpechennya mozhlivosti onovlennya ciyeyi vnutrishnoyi informaciyi pro stan protyagom chasu neobhidno shob v programi agenta buli zakodovani znannya dvoh vidiv Po pershe potribna pevna informaciya pro te yak seredovishe zminyuyetsya nezalezhno vid agenta Po druge potribna pevna informaciya pro te yak vplivayut na svit vlasni diyi agenta Ci znannya pro te yak reaguye seredovishe nazivayutsya modellyu svitu Agent v yakomu vikoristovuyetsya taka model nazivayetsya agentom zasnovanim na modeli Na ris 2 navedena struktura refleksnogo agenta sho diye z urahuvannyam vnutrishnogo stanu i pokazano yak potochne sprijnyattya kombinuyetsya z kolishnim vnutrishnim stanom dlya viroblennya onovlenogo opisu potochnogo stanu Programa takogo agenta privedena v listingu 2 V comu listingu interes predstavlyaye funkciya Update State yaka vidpovidaye za stvorennya novogo opisu vnutrishnogo stanu Cya funkciya ne tilki interpretuye rezultati novogo sprijnyattya u svitli isnuyuchih znan pro stan ale i vikoristovuye informaciyu pro te yak zminyuyetsya seredovishe dlya stezhennya za nevidimimi chastinami svitu tomu povinna vrahovuvati informaciyu pro te yak diyi agenta vplivayut na stan svitu Listing 2 Refleksnij agent zasnovanij na modeli yakij stezhit za potochnim stanom svitu z vikoristannyam vnutrishnoyi modeli potim vibiraye diyu takim zhe chinom yak i prostij refleksnij agent function Reflex Agent With State percept returns action static state opis potochnogo stanu svitu rules mnozhina pravil umova diya action ostannya za chasom diya spochatku ne viznacheno state Update State state action percept rule Rule Match state rules action Rule Action rule return actionAgenti zasnovani na ciliAgentu potriben ne tilki opis potochnogo stanu ale i svogo rodu informaciya pro metu yaka opisuye bazhani situaciyi taki yak napriklad dostavka pasazhira v misce priznachennya Programa agenta mozhe kombinuvati cyu informaciyu z informaciyeyu pro rezultati mozhlivih dij z takoyu zh informaciyeyu yak i ta sho vikoristovuvalasya pri onovlenni vnutrishnogo stanu refleksnogo agenta dlya viboru dij sho dozvolyayut dosyagti ciyeyi meti Struktura agenta sho diye na osnovi meti pokazana na ris 3 Inodi zadacha viboru diyi na osnovi meti virishuyetsya prosto koli dosyagnennya meti negajno staye rezultatom yedinoyi diyi a inodi cya zadacha staye skladnishoyu i agentu potribno rozglyanuti dovgi poslidovnosti dij shob znajti sposib dosyagnennya meti Pidoblasti shtuchnogo intelektu prisvyacheni viroblennyu poslidovnosti dij dozvolyayuchi agentu dosyagti cili ye poshuk ta planuvannya Stanom svitu a takozh za mnozhinoyu cilej yaki vin namagayetsya dosyagti i vibiraye diyu sho dozvolyaye v kincevomu pidsumku domogtisya dosyagnennya cih cilej Slid vrahovuvati sho procedura prijnyattya rishen takogo rodu maye fundamentalni vidminnosti vid opisanoyi vishe proceduri zastosuvannya pravil umova diya oskilki v nij dovoditsya rozmirkovuvati pro majbutnye vidpovidayuchi na dva pitannya Sho stanetsya yaksho ya zroblyu te to i te to i Chi dozvolit ce meni dosyagti zadovolennya V proyektah refleksnih agentiv taka informaciya ne predstavlena yavno oskilki vbudovani pravila vstanovlyuyut bezposerednyu vidpovidnist mizh sprijnyattyami j diyami Hocha na pershij poglyad zdayetsya sho agent zasnovanij na cili mensh efektivnij vin ye gnuchkishim oskilki znannya na yaki spirayutsya jogo rishennya predstavleni yavno i mozhut buti modifikovani Agenti zasnovani na korisnostiOskilki ponyattya zadovolenosti ne ye zovsim naukovim chastishe zastosovuyetsya terminologiya zgidno z yakoyu stan svitu bilsh detalno viznachenij v porivnyanni z inshim rozglyadayetsya yak toj sho maye vishu korisnist dlya agenta Stan svitu vikoristovuyetsya poryad z funkciyeyu korisnosti yaka vimiryuye perevagi agenta stosovno staniv svitu Potim agent vibiraye diyu yaka vede do najkrashoyi ochikuvanoyi korisnosti Dlya obchislennya ochikuvanoyi korisnosti vikonuyetsya userednennya po vsih mozhlivih rezultuyuchih stanah z urahuvannyam koeficiyenta sho viznachaye jmovirnist kozhnogo rezultatu Funkciya korisnosti vidobrazhaye stan abo poslidovnist staniv na vagove chislo yake poznachaye vidpovidnij stupin zadovolenosti agenta Povna specifikaciya funkciyi korisnosti zabezpechuye mozhlivist prijmati racionalni rishennya v opisanih nizhche dvoh vipadkah koli cogo ne dozvolyayut zrobiti cili Po pershe yaksho ye konfliktuyuchi cili taki sho mozhut buti dosyagnuti tilki deyaki z nih to funkciya korisnosti dozvolyaye znajti prijnyatnij kompromis Po druge yaksho ye dekilka cilej do yakih mozhe pragnuti agent ale zhodna z nih ne mozhe buti dosyagnuta z usiyeyu viznachenistyu to funkciya korisnosti nadaye zruchnij sposib zvazhenoyi ocinki jmovirnosti uspihu z urahuvannyam vazhlivosti cilej Struktura agenta sho diye z urahuvannyam korisnosti pokazana na ris 4 Porivnyannya riznih agentivProsti refleksni agenti vidpovidayut bezposeredno na akti sprijnyattya todi yak refleksni agenti zasnovani na modeli pidtrimuyut vnutrishnij stan slidkuyuchi za timi aspektami seredovisha kotri ne proslidkovuyutsya v potochnomu akti sprijnyattya Agenti yaki diyut na osnovi cili organizuyut svoyi diyi tak shob dosyagnuti svoyih cilej Agenti yaki diyut z urahuvannyam korisnosti roblyat sprobi maksimizuvati svoyu ochikuvanu zadovolenist DzherelaS Rassel P Norvig Shtuchnij intelekt suchasnij pidhid