Е́тика шту́чного інтеле́кту є частиною [en], що стосується роботів та інших штучно інтелектуальних істот. Вона зазвичай поділяється на робоетику, яка вирішує питання моральної поведінки людей під час проєктування, конструювання, використання та лікування штучно розумних істот, і машинну етику, яка зачіпає проблеми моральної поведінки штучних моральних агентів (ІМА).
Етика роботів
Термін «етика роботів» (або «робоетика») стосується моральних аспектів того, як люди проєктують, конструюють, використовують і поводяться з роботами та іншими штучно інтелектуальними істотами. Вона розглядає, як штучно розумні істоти можуть бути використані на шкоду або в інтересах людей.
Права роботів
«Права роботів» — це концепція, згідно з якою люди повинні мати моральні зобов'язання перед своїми машинами, подібні до прав людини або тварин. Є пропозиція, що права роботів, такі як право на існування і виконання власної місії, можна пов'язати з обов'язком робота служити людині, за аналогією з пов'язанням прав людини з обов'язками людини перед суспільством. Вони можуть включати право на життя і свободу, свободу думки і висловлювань, а також рівність перед законом. Це питання розглядав і Міністерство торгівлі та промисловості Великої Британії.
Експерти не мають спільної думки, чи потрібні конкретні і докладні закони вже найближчим часом, чи тільки у віддаленому майбутньому. Гленн Макгі повідомляє, що до 2020 року може з'явитися досить гуманоїдний робот. Рей Курцвейл вважає, що це відбудеться до 2029 року. У 2007 році інша група вчених припускала, що пройде, принаймні, 50 років, перш ніж зможе існувати досить просунута система.
Правила конкурсу премії Льобнера 2003 року передбачали можливість того, що роботи можуть мати власні права.
У жовтні 2017 року андроїд Софія отримала «почесне» громадянство в Саудівській Аравії, хоча деякі спостерігачі визнали це швидше рекламним ходом, аніж осмисленим юридичним визнанням. Деякі розглядали цей жест як відкрите приниження прав людини і верховенства закону.
Філософія [en] надає право на моральне ставлення всім чутливим істотам, передусім людям і більшості тварин. Якщо штучні або інопланетні інтелектуальні істоти демонструють докази своєї чуттєвості, ця філософія вважає, що до них слід проявити співчуття і надати права.
стверджувала, що створення ШІ, який вимагає прав, можна уникнути, і саме по собі неетично, що це буде тягарем і для агентів ШІ і для людського суспільства.
Загроза людській гідності
Джозеф Вейценбаум стверджував у 1976 році, що технологія штучного інтелекту не повинна використовуватися для заміни людей на посадах, які вимагають поваги і турботи, таких як:
- співробітник служби підтримки клієнтів (технології ШІ вже використовуються в телефонних системах інтерактивних голосових відповідей)
- терапевт (як запропонував в 1970-х роках)
- доглядальниця для літніх людей (як розповіла у книзі «П'яте покоління»)
- солдат
- суддя
- поліціянт
Вайзенбаум пояснює, що від людей на цих посадах ми очікуємо справжнього почуття емпатії. Якщо машини їх замінять, ми опинимося відчуженими, знеціненими і розчарованими. Штучний інтелект, якщо його використовувати таким чином, є загрозою для людської гідності. Вайзенбаум стверджує, що факт того, що ми розглядаємо можливість машинам займати ці позиції, говорить про те, що ми пережили «атрофію людського духу, яка виникає через те, що ми думаємо про себе як про комп'ютери».
заперечує, кажучи про жінок і меншини, «я воліла б ризикнути з неупередженим комп'ютером», вказуючи на умови, за яких ми б вважали за краще мати автоматичних суддів і поліцію, у яких взагалі немає особистих інтересів Проте, Каплан і Хенлейн підкреслюють, що системи штучного інтелекту інтелектуальні точно згідно з даними, які використовувалися для їх навчання, оскільки за своєю суттю вони являють собою не що інше, як машини для : використання штучного інтелекту для підтримки судового рішення може стати досить проблематичним, якщо минулі рішення демонструють упередженість до певних груп, оскільки ці упередження формалізуються та закріплюються, що робить виявлення і боротьбу з ними ще важчою. Засновник ШІ Джон Маккарті заперечує проти моралізаторського тону критики Вейзенбаума. Він пише: «Коли моралізаторство несамовите і розпливчасте, воно заохочує авторитарне насильство».
зазначав, що «людська гідність вимагає, щоб ми прагнули усунути наше незнання природи буття, і для цього необхідний ШІ».
Прозорість, відповідальність і відкритий сирцевий код
[en] стверджує, що, оскільки ШІ дуже вплине на людство, зусилля розробників ШІ етично мають бути прозорими. і Девід Гарт створили OpenCog як фреймворк з відкритим сирцевим кодом для розробки ШІ. OpenAI — це некомерційна дослідницька компанія зі штучного інтелекту, яку створили Ілон Маск, Сем Альтман та інші для розробки корисного для людства програмного забезпечення ШІ з відкритим сирцевим кодом. Існує багато інших розробок ШІ з відкритим сирцевим кодом.
На жаль, відкритість коду не робить його зрозумілим, тобто ШІ, який ним закодовано, не є прозорим. IEEE намагається стандартизувати прозорість ШІ. При цьому IEEE виділяє для різних користувачів декілька ступенів прозорості. Крім того, є побоювання, що надання повного потенціалу сучасного ШІ деяким організаціям може завдати суспільству більше шкоди, ніж користі. Наприклад, Microsoft висловила стурбованість з приводу надання загального доступу до свого програмного забезпечення для розпізнавання облич, навіть з числа тих, хто може за нього заплатити. Microsoft опублікувала незвичайний блог на цю тему з проханням про урядове регулювання з метою визначення правильності цих дій.
Не тільки компанії, але й багато інших дослідників і цивільні адвокати рекомендують державне регулювання для забезпечення прозорості і, як наслідок, відповідальності людини. Оновлену збірку (список) етики ШІ підтримує організацією AlgorithmWatch. [ 30 листопада 2019 у Wayback Machine.] Ця стратегія спірна, так як дехто побоюється, що вона призведе до уповільнення темпів інновацій. Інші стверджують, що регулювання призводить до системної стабільності, що сприяє підтримці інновацій у довгостроковій перспективі. ОЕСР, ООН, ЄС і багато країн працюють над стратегіями регулювання ШІ і шукають відповідні правові рамки. 26 червня Група високорівневих експертів Європейської комісії зі штучного інтелекту (AI HLEG) опублікувала свої «Рекомендації щодо політики та інвестицій в галузі надійного штучного інтелекту». Це другий документ AI HLEG, який вийшов слідом за публікацією в квітні 2019 «Керівництва з етики для надійного ШІ». Нові рекомендації стосуються чотирьох основних областей: люди і суспільство в цілому, приватний сектор, державний сектор, а також дослідження і наука. Рекомендації HLEG відбивають розуміння як можливостей для технологій штучного інтелекту стимулювати економічне зростання, процвітання та інновації, так і потенційних ризиків. Європейський Союз має амбіції очолити розробку політик, що регулюють ШІ у всьому світі. Однак, якщо Європа не прискорить розгортання і впровадження і не створить виробничі, дослідницькі та дослідно-конструкторські потужності, її можливості для цього будуть обмежені.
Упередженість у системах ШІ
ШІ стає невід'ємною частиною систем розпізнавання обличчя і голосу. Деякі з цих систем мають реальний вплив на бізнес і людей. Ці системи вразливі щодо упереджень і помилок, внесених творцями-людьми. Крім того, дані, які використовуються для навчання самих цих систем ШІ, можуть мати спотворення. Наприклад, алгоритми розпізнавання облич, розроблені Microsoft, IBM і Face++, виявилися необ'єктивними, коли справа дійшла до визначення статі людей. Ці системи штучного інтелекту були в змозі визначати стать білих чоловіків точніше, ніж стать темношкірих чоловіків. Ще одним прикладом необ'єктивності ШІ стало припинення з боку Amazon's.com Inc використання ШІ для найму співробітників. Алгоритм надавав перевагу кандидатам-чоловікам. Це сталося тому, що система Amazon була навчена з використанням даних, зібраних за 10-річний період, які надходили переважно основному від кандидатів-чоловіків.
Упередженість може потрапити в алгоритми різними шляхами. В дуже впливовій гілці ШІ, відомій як «обробка природної мови», можуть виникнути проблеми з «текстового зводу» — вхідного матеріалу, який використовує алгоритм, щоб дізнатися про взаємозв'язки між різними словами.
Проблему упередженості почали досліджувати та вирішувати великі компанії, такі як IBM, Google та інші.
Проблема упередженості в машинному навчанні, ймовірно, стане ще серйознішою, оскільки технологія поширюється на такі критичні галузі, як медицина, юриспруденція, і оскільки завдання її розгортання доручають все більшому числу людей, які не мають глибоких технічних знань. Деякі експерти попереджають, що алгоритмічна необ'єктивність вже поширена в багатьох галузях, і що майже ніхто не робить зусиль для її виявлення або виправлення.
Відповідальність за частково або повністю безпілотні автомобілі
Є всі підстави вважати, що в майбутньому неминуче широке використання частково або повністю безпілотних автомобілів. Але повністю автономні технології ставлять перед нами нові проблеми і виклики. Останнім часом піднялися дебати з приводу юридичної відповідальності сторін при попаданні безпілотних автомобілів в аварії. В одному зі звітів автомобіль без водія збив пішохода і постала проблема, хто винен в аварії. Незважаючи на те, що водій під час аварії перебував в автомобілі, керування повністю здійснював комп'ютер. Необхідно вирішити такого роду питання перш, ніж безпілотні автомобілі набудуть масового поширення.
Озброєний штучний інтелект
Деякі експерти і вчені ставлять під сумнів використання роботів у бойових діях, особливо коли таким роботам надається певний ступінь автономності. ВМС США профінансували доповідь, у якій зазначається, що, оскільки бойові роботи стають все складнішими, слід приділяти більше уваги наслідкам їх здібності приймати самостійні рішення. Є думка одного дослідника, який стверджує, що автономні роботи можуть бути гуманнішими, оскільки можуть приймати рішення ефективніше[].
Протягом останнього десятиліття проводилися інтенсивні дослідження в галузі самонавчання автономності з призначуваною моральною відповідальністю. «Результати можна використати при розробці майбутніх військових роботів для контролю за небажаними тенденціями покладання відповідальності на роботів». З точки зору консеквенціалізму є ймовірність, що роботи будуть розвивати здібності приймати свої власні логічні рішення про те, кого вбивати, і тому необхідні моральні обмеження, які ШІ не зможе обійти.
Нещодавно були протестні голоси проти розробки ШІ-зброї, яка включала б ідеї захоплення людства роботом. ШІ-зброя несе небезпеку іншого роду, на відміну від зброї, контрольованої людиною. Багато урядів уже почали фінансувати програми з розробки ШІ-озброєння. ВМС США нещодавно оголосили про плани розробки ударного безпілотника, паралельно з аналогічними заявами Росії та Південної Кореї. У зв'язку з тим, що ШІ-зброя стає більш небезпечним, ніж керована людиною зброю, Стівен Гокінг і Макс Тегмарк підписали петицію «Майбутнє життя» про заборону ШІ-зброї. У повідомленні, опублікованому Гокінгом і Тегмарком, йдеться, що ШІ-зброя являє собою безпосередню небезпеку і що необхідно вжити заходів, щоб уникнути катастрофічних наслідків у найближчому майбутньому.
«Якщо яка-небудь велика військова сила просуває розробку ШІ-зброї, практично неминуча глобальна гонка озброєнь, і в підсумку автономна зброя стане автоматом Калашникова завтрашнього дня», — йдеться в петиції, яку підписали противники збройного штучного інтелекту: засновник Skype Яан Таллінн і професор лінгвістики Массачусетського технологічного інституту Ноам Чомскі.
Фізик і астроном сер Мартін Ріс попереджає про такі катастрофічних прикладах, як «дурні роботи, які стають ізгоями, або мережа, яка розвиває власний розум». , колега Ріса з Кембриджа, озвучив подібне попередження про те, що люди можуть не вижити, якщо інтелект «вислизне від біологічних обмежень». У Кембриджському університеті створили [en] в надії уникнути цієї загрози людському існуванню
Що стосується можливості використання «розумніших від людини» систем у військовій справі, проєкт [en]» пише, що ці сценарії «здаються потенційно настільки ж важливими, як і ризики, пов'язані зі втратою контролю», але дослідні організації, які займаються довгостроковим соціальним впливом ШІ, недостатньо вивчили цю проблему: «цей клас сценаріїв не був у центрі уваги організацій, що займаються цими питаннями, таких як Науково-дослідний інститут машинного інтелекту (MIRI) та Інститут майбутнього людства (FHI) і тому менше обговорювалися».
Машинна етика
Машинна етика (або машинна мораль) — це галузь досліджень, пов'язаних з розробкою штучних [en] (ШМА), роботів або штучно інтелектуальних комп'ютерів, які поводяться морально або ніби морально. Щоб врахувати природу цих агентів, запропоновано розглянути деякі філософські ідеї, такі як стандартні характеристики , раціональних агентів, [en] і штучної суб'єктності, які пов'язані з концепцією ШМА.
Айзек Азімов розглянув цю проблему в 1950-х роках у своїй серії оповідань «Я, робот». За наполяганням редактора Джона Кемпбелла молодшого для керування штучно інтелектуальними системами він запропонував три закони робототехніки. Він доклав багато зусиль для перевірки меж трьох його законів, щоб побачити, де вони можуть зламатися або спричинити парадоксальну чи непередбачувану поведінку. Його робота передбачає, що жоден із встановлених законів не може достатньою мірою передбачати всі можливі обставини. Останнім часом вчені і багато урядів поставили під сумнів ідею про притягнення до відповідальності ШІ. Комісія, скликана у Великій Британії в 2010 році, переглянула закони Азімова, щоб уточнити, що ШІ належить до відповідальності або його виробників, або його власника/оператора.
У 2009 році, під час експерименту в Лабораторії інтелектуальних систем у Політехнічній школі Лозанни у Швейцарії, роботи, запрограмовані на співпрацю один з одним (у пошуку корисних ресурсів та уникнення отруйних), врешті решт навчилися брехати один одному, намагаючись накопичити корисні ресурси. Однією з проблем у цьому випадку могло бути те, що цілі були «скінченними» (тоді як основні людські мотиви зазвичай перебувають у нескінченному навчанні).
Деякі експерти і вчені ставлять під сумнів використання роботів для бойових дій, особливо коли таким роботам надається певна автономність. ВМС США профінансували доповідь, у якій зазначається, що в міру ускладнення військових роботів слід приділяти більше уваги наслідкам їх здатності приймати самостійні рішення.
Вернор Вінжі припустив, що може настати момент, коли деякі комп'ютери стануть розумнішими за людей, назвавши це явище сингулярністю. Він припускає, що це може бути частково або навіть дуже небезпечно для людини. Науково-дослідний інститут машинного інтелекту висловив припущення про необхідність створення «дружнього ШІ», маючи на увазі, що прогрес, який вже відбувається з ШІ, маєтакож включати зусилля, спрямовані на створення більш дружнього і гуманного ШІ.
У 2009 році вчені та технічні експерти взяли участь у конференції, організованій Асоціацією з розвитку штучного інтелекту, щоб обговорити потенційну роль роботів і комп'ютерів і вплив гіпотетичної можливості того, що вони можуть стати самодостатніми і здатними приймати власні рішення. Вони обговорили можливість і ступінь, з яким комп'ютери і роботи могли б набути будь-якого рівня автономії, і якою мірою вони могли б використовувати такі можливості, щоб становити певну загрозу чи небезпеку. Вони відзначили, що деякі машини набули різних форм напівавтономності, зокрема можливості самостійно знаходити джерела енергії і самостійно вибирати цілі для атаки зброєю. Вони також відзначили, що деякі комп'ютерні віруси можуть уникати знищення і досягли «інтелекту тарганів». Вони відзначили, що самосвідомість, як зображено в науковій фантастиці, малоймовірна, але є інші потенційні небезпеки і «підводні камені».
Проте, існує одна технологія, яка дійсно може призвести до роботів з моральними здібностями. У статті про набуття моральних цінностей роботами Наєф Аль-Родхан згадує випадок нейроморфних чіпів, які прагнуть обробляти інформацію подібно до людей, нелінійно і з мільйонами взаємопов'язаних штучних нейронів. Роботи зі вбудованою нейроморфною технологією можуть вивчати і розвивати знання унікальним чином. Це неминуче піднімає питання про довкілля, в якому такі роботи пізнають світ і мораль яку вони успадкують, або якщо вони врешті решт також розвинуть людські «слабкості»: егоїзм, ставлення до виживання, коливання тощо.
У книзі «Моральні машини: навчання роботів правильному через неправильне» Венделл Воллах і Колін Аллен роблять висновок, що спроби навчити роботів чинити правильно через неправильно можуть просунути розуміння людської етики, мотивуючи людей на усунення прогалин сучасної нормативної теорії і надаючи платформу для експериментального дослідження. Для прикладу він задає нормативним фахівцям з етики спірне питання про те, які конкретні алгоритми машинного навчання потрібно використовувати. Нік Бостром і Еліезер Юдковський наводять аргументи на користь дерев рішень (таких як ID3) проти нейронних мереж і генетичних алгоритмів, тому що дерева рішень підпорядковуються сучасним соціальним нормам прозорості та передбачуваності (наприклад, stare decisis), тоді як Кріс Сантос-Ланг заперечує, що норми будь-якого віку можна змінювати і що природна нездатність повністю задовольнити ці конкретні норми має важливе значення для того, щоб зробити людей менш уразливими для злочинних «хакерів»
Згідно зі звітом Центру управління ШІ в Оксфордському університеті за 2019 рік, 82 % американців вважають, що необхідно ретельно керувати роботами і ШІ. Обговорювані проблеми варіювалися від того, як ШІ використовується для стеження і поширення фальшивого вмісту в Інтернеті (відомого як глибокі фейки, які включають підроблені відео і аудіо, згенеровані за допомогою ШІ), до кібератак, посягань на конфіденційність даних, упередженості під час найму на роботу, безпілотних транспортних засобів і дронів, які не вимагають керування людиною.
Несподівані наслідки
Багато дослідників стверджують, що внаслідок «інтелектуального вибуху», що стався десь у XXI столітті, самовдосконалюваний ШІ може стати настільки могутнішим від людей, що ми не зможемо перешкодити йому досягти своїх цілей. У своїй статті «Етичні проблеми просунутого штучного інтелекту» філософ Нік Бостром стверджує, що штучний інтелект здатний викликати вимирання людини. Він стверджує, що загальний надрозум здатний на самостійну ініціативу і на створення власних планів, і тому його доцільно розглядати як автономного агента. Оскільки штучний інтелект не зобов'язаний розділяти людські мотивації, розробники суперінтелекту мали б закласти його первісну мотивацію. Теоретично, надінтелектуальний ШІ зможе привести до практично будь-якого можливого результату і припинити будь-яку спробу перешкодити досягненню головної мети, що може спричинити багато неконтрольованих . Це може вбити всіх інших агентів, переконати їх змінити свою поведінку або заблокувати їхні спроби втручання.
Однак замість того, щоб перевершити людську расу і вести її до руйнації, Бостром також стверджує, що супер-інтелект може допомогти нам вирішити багато складних проблеми, таких як хвороби, бідність, руйнування навколишнього середовища, і може допомогти нам «поліпшити» себе.
Складність систем людських цінностей веде до високої складності створення зручних для людини мотивацій ШІ. Поки моральна філософія не дає нам бездоганної етичної теорії, функція корисності ШІ може допускати безліч потенційно шкідливих сценаріїв, які відповідають даній етичній структурі, але не відповідають здоровому глузду". За словами Елізера Юдковського, у нас мало підстав вважати, що штучно створений розум буде володіти такою адаптацією.
запропонував такий дизайн штучного інтелекту, який уникає деяких типів ненавмисної поведінки, зокрема самообман, ненавмисні інструментальні дії та пошкодження генератора винагород.
Організації
Amazon, Google, Facebook, IBM і Microsoft створили некомерційне партнерство для розробки передового досвіду в галузі технологій штучного інтелекту, поліпшення розуміння громадськістю та забезпечення платформи ШІ. Вони заявили: «Це партнерство щодо ШІ буде проводити дослідження, організовувати дискусії, забезпечувати інтелектуальне лідерство, консультуватися з відповідними третіми сторонами, відповідати на питання громадськості та засобів масової інформації, а також створювати навчальні матеріали, що сприяють розумінню технологій ШІ, включно з машинним сприйняттям, навчанням і автоматичними міркуваннями». Apple приєдналася до іншим технологічних компаніям як один із засновників Партнерства зі штучного інтелекту в січні 2017 року. Корпоративні учасники будуть робити фінансовий і дослідницький внесок у роботу групи, взаємодіючи з науковою спільнотою, щоб залучити вчених до ради директорів.
IEEE розробив Глобальну ініціативу з етики автономних та інтелектуальних систем [ 6 жовтня 2019 у Wayback Machine.], яка розробляє і переглядає за допомогою громадської думки методичні рекомендації.
Традиційно, громадськість використовує уряд для контролю відповідності етиці рамок законодавства і правопорядку. Нині національні уряди, а також міжнародні урядові та неурядові організації докладають багато зусиль для забезпечення етичного застосування ШІ.
- Європейська комісія має експертну групу високого рівня зі штучного інтелекту [ 24 жовтня 2019 у Wayback Machine.] .
- ОЕСР зі штучного інтелекту [ 22 липня 2019 у Wayback Machine.]
- В США адміністрація Обами розробила «Дорожню карту для політики в галузі ШІ» [ 22 січня 2021 у Wayback Machine.] (посилання на звіт Harvard Business Review). Адміністрація Обами випустила два помітних документи про майбутнє і вплив ШІ. На січень 2019 року адміністрація Трампа не брала активної участі в регулюванні ШІ.
- [en] (CCC) включив проект доповіді, що містить більше 100 сторінок — 20-річну дорожню карту спільноти для досліджень в галузі штучного інтелекту в США
В художній літературі
Фільм «Тринадцятий поверх» показує майбутнє, в якому на гральних консолях створюються для розваги симульовані світи з розумними мешканцями. Фільм «Матриця» показує майбутнє, де домінівним видом на планеті Земля є розумні машини, а людство зазнає граничної дискримінації. В оповіданні Грега Ігена [en]» зображено майбутнє, в якому людство перетворилося на програмне забезпечення, яке можна дублювати й оптимізувати, а програмне забезпечення, відповідно, поділяють на чутливе і не чутливе. Цю ж ідею знаходимо в , яка є явно розумною копією зменшеної підмножини свідомості її творця, , який з найкращими намірами створив систему надання екстреної медичної допомоги. У фільмах «Двохсотлітня людина» і «Штучний розум» розглядаються можливості розумних роботів, які можуть любити. «Я, Робот» показав деякі аспекти трьох законів робототехніки Азімова. Всі вони намагаються передбачити, можливо, неетичні наслідки створення розумних комп'ютерів.
Етика штучного інтелекту є однією з основних тем у серії ігор BioWare «Mass Effect». Вона розглядає сценарій, в якому цивілізація випадково створила ШІ завдяки швидкому збільшення обчислювальної потужності та використанню глобальної нейронної мережі. Ця подія викликала етичний розкол між тими, хто вважав, що розумних Гетів можна наділити органічними правами, і тими, хто продовжував розглядати їх як одноразовий механізм і боровся за їх знищення. Крім початкового конфлікту ще однією постійною темою всієї історії є складність відносин між машинами і їхніми творцями.
Див. також
- [en]
- Моделювання свідомості
- Сильний і слабкий штучні інтелекти
- Комп'ютерна етика
- Ефективний альтруїзм, довгострокове майбутнє і глобальні катастрофічні ризики
- [en]
- Закони робототехніки
- Філософія штучного інтелекту
- Робоетика
- [en]
- [en]
- Дослідники
- Нік Бостром
- [en]
- Рей Курцвейл
- [en]
- Пітер Норвіг
- [en]
- Елізер Юдковський
- Організації
- [en]
- [en]
- [en]
- Науково-дослідний інститут машинного інтелекту
- [en]
Примітки
- Veruggio, Gianmarco. The Roboethics Roadmap. — Scuola di Robotica, 2007. — 28 June.
- [en]. Posthuman Rights: Dimensions of Transhuman Worlds // Teknokultura. — 2015. — Т. 12, № 2 (28 June). — DOI: .
- Yurii Sheliazhenko. Artificial Personal Autonomy and Concept of Robot Rights. — European journal of law and political sciences, 2017. — 28 June. з джерела 14 липня 2018. Процитовано 2017-05-10.
- The American Heritage Dictionary of the English Language, Fourth Edition
- . BBC News. 21 грудня 2006. Архів оригіналу за 15 жовтня 2019. Процитовано 3 січня 2010.
- Henderson, Mark (24 квітня 2007). . The Times Online. The Times of London. Архів оригіналу за 17 травня 2008. Процитовано 2 травня 2010.
- McGee, Glenn. . The Scientist. Архів оригіналу за 6 вересня 2020. Процитовано 13 грудня 2020.
- Ray Kurzweil. The Singularity is Near. — Penguin Books, 2005. — .
- , Independent Newspaper,
- . Архів оригіналу за 27 жовтня 2017. Процитовано 13 грудня 2020.
- Vincent, James (30 жовтня 2017). . The Verge. Архів оригіналу за 3 серпня 2019. Процитовано 13 грудня 2020.
- Close engagements with artificial companions : key social, psychological, ethical and design issues. — Amsterdam : John Benjamins Pub. Co, 2010. — .
- Joseph Weizenbaum, quoted in McCorduck, 2004, с. 356, 374—376
- . Архів оригіналу за 21 листопада 2018. Процитовано 10 жовтня 2019.
- Hibbard, Bill (2014): «Ethical Artificial Intelligence».
- Open Source AI. [ 4 березня 2016 у Wayback Machine.] Bill Hibbard. 2008 proceedings of the First Conference on Artificial General Intelligence, eds. Pei Wang, Ben Goertzel and Stan Franklin.
- OpenCog: A Software Framework for Integrative Artificial General Intelligence. [ 4 березня 2016 у Wayback Machine.] David Hart and Ben Goertzel. 2008 proceedings of the First Conference on Artificial General Intelligence, eds. Pei Wang, Ben Goertzel and Stan Franklin.
- Inside OpenAI, Elon Musk's Wild Plan to Set Artificial Intelligence Free [ 27 квітня 2016 у Wayback Machine.] Cade Metz, Wired 27 April 2016.
- . P7001 - Transparency of Autonomous Systems. IEEE. Архів оригіналу за 10 січня 2019. Процитовано 10 січня 2019..
- Thurm, Scott (13 липня 2018). . Wired. Архів оригіналу за 9 травня 2019. Процитовано 13 грудня 2020.
- Bastin, Roland (2017-06). (PDF). Inside magazine. Deloitte. Архів оригіналу (PDF) за 10 січня 2019. Процитовано 13 грудня 2020.
- . UN News (англ.). 7 червня 2017. Архів оригіналу за 26 липня 2019. Процитовано 26 липня 2019.
- . www.oecd.org (англ.). Архів оригіналу за 22 липня 2019. Процитовано 26 липня 2019.
- Anonymous (14 червня 2018). . Digital Single Market - European Commission (англ.). Архів оригіналу за 1 серпня 2019. Процитовано 26 липня 2019.
- . Center for Democracy & Technology (англ.). Архів оригіналу за 9 серпня 2019. Процитовано 9 серпня 2019.
- Society, DeepMind Ethics & (14 березня 2018). . Medium (англ.). Архів оригіналу за 22 липня 2019. Процитовано 22 липня 2019.
- . TechCrunch (англ.). Архів оригіналу за 18 березня 2021. Процитовано 22 липня 2019.
- Knight, Will. . MIT Technology Review (англ.). Архів оригіналу за 4 липня 2019. Процитовано 22 липня 2019.
- Villasenor, John (3 січня 2019). . Brookings (англ.). Архів оригіналу за 22 липня 2019. Процитовано 22 липня 2019.
- Lohr, Steve (9 лютого 2018). . The New York Times (англ.). Архів оригіналу за 9 січня 2019. Процитовано 29 травня 2019.
- . Reuters (англ.). 10 жовтня 2018. Архів оригіналу за 27 травня 2019. Процитовано 29 травня 2019.
- . techxplore.com (англ.). Архів оригіналу за 25 липня 2019. Процитовано 26 липня 2019.
- Olson, Parmy. . Forbes (англ.). Архів оригіналу за 26 липня 2019. Процитовано 26 липня 2019.
- . Google Developers (англ.). Архів оригіналу за 10 серпня 2019. Процитовано 26 липня 2019.
- . www.research.ibm.com (англ.). REPLACE. Архів оригіналу за 17 липня 2019. Процитовано 26 липня 2019.
- Knight, Will. . MIT Technology Review (англ.). Архів оригіналу за 4 липня 2019. Процитовано 26 липня 2019.
- Davies, Alex (29 лютого 2016). . Wired. Архів оригіналу за 7 липня 2019. Процитовано 26 липня 2019.
- Levin, Sam (19 березня 2018). . The Guardian (англ.). Архів оригіналу за 26 липня 2019. Процитовано 26 липня 2019.
- . Futurism (англ.). Архів оригіналу за 26 липня 2019. Процитовано 26 липня 2019.
- Radio, Business. . Knowledge@Wharton (англ.). Архів оригіналу за 26 липня 2019. Процитовано 26 липня 2019.
- Delbridge, Emily. . The Balance (англ.). Архів оригіналу за 29 травня 2019. Процитовано 29 травня 2019.
- . GOV.UK (англ.). Архів оригіналу за 26 липня 2019. Процитовано 26 липня 2019.
- . cyberlaw.stanford.edu. Архів оригіналу за 26 липня 2019. Процитовано 26 липня 2019.
- . www.ncsl.org. Архів оригіналу за 26 липня 2019. Процитовано 26 липня 2019.
- Call for debate on killer robots [ 7 серпня 2009 у Wayback Machine.], By Jason Palmer, Science and technology reporter, BBC News, 8/3/09.
- Robot Three-Way Portends Autonomous Future [ 7 листопада 2012 у Wayback Machine.], By David Axe wired.com, August 13, 2009.
- Navy report warns of robot uprising, suggests a strong moral compass [ 4 червня 2011 у Wayback Machine.], by Joseph L. Flatley engadget.com, Feb 18th 2009.
- . Архів оригіналу за 5 липня 2019. Процитовано 13 грудня 2020.
- Mitra, Ambarish. . Quartz (англ.). Архів оригіналу за 26 липня 2019. Процитовано 26 липня 2019.
- . Future of Life Institute (англ.). Архів оригіналу за 11 грудня 2017. Процитовано 26 липня 2019.
- Zach Musgrave and Bryan W. Roberts (14 серпня 2015). . The Atlantic. Архів оригіналу за 11 квітня 2017. Процитовано 13 грудня 2020.
- Cat Zakrzewski (27 липня 2015). . WSJ. Архів оригіналу за 28 липня 2015. Процитовано 13 грудня 2020.
- GiveWell. (Звіт). Архів оригіналу за 12 жовтня 2015. Процитовано 13 грудня 2020.
- Anderson. . Архів оригіналу за 28 вересня 2011. Процитовано 27 червня 2011.
- Machine Ethics / Anderson, Michael; Anderson, Susan Leigh. — Cambridge University Press, 2011. — .
- Special Issue on Machine Ethics // [en] : journal. — Vol. 21, no. 4. — P. 10—63. — ISSN 1541-1672. — DOI: . з джерела 26 листопада 2011.
- Michael; Anderson. Machine Ethics: Creating an Ethical Intelligent Agent // AI Magazine : journal. — Vol. 28, no. 4. — P. 15—26. — ISSN 0738-4602. з джерела 18 вересня 2020. Процитовано 13 грудня 2020.
- Robert James M.; Boyles. Philosophical Signposts for Artificial Moral Agent Frameworks // Suri : journal. — 2017. — Vol. 6, no. 2 (10). — P. 92—109. з джерела 7 березня 2022. Процитовано 13 грудня 2020.
- Joanna; Bryson. Of, for, and by the people: the legal lacuna of synthetic persons // Artificial Intelligence and Law : journal. — 2017. — Vol. 25, no. 3 (9). — P. 273—291. — DOI: .
- . UK's EPSRC. 2010-09. Архів оригіналу за 1 квітня 2018. Процитовано 10 січня 2019.
- Evolving Robots Learn To Lie To Each Other [ 28 серпня 2009 у Wayback Machine.], Popular Science, August 18, 2009
- Santos-Lang, Chris. . Архів оригіналу за 25 грудня 2014. Процитовано 13 грудня 2020.
- Scientists Worry Machines May Outsmart Man [ 1 липня 2017 у Wayback Machine.] By JOHN MARKOFF, NY Times, July 26, 2009.
- The Coming Technological Singularity: How to Survive in the Post-Human Era [ 1 січня 2007 у Wayback Machine.], by Vernor Vinge, Department of Mathematical Sciences, San Diego State University, (c) 1993 by Vernor Vinge.
- Al-Rodhan, Nayef (12 серпня 2015). . Foreign Affairs (англ.). Архів оригіналу за 5 березня 2017. Процитовано 23 січня 2018.
- Wallach, Wendell; Allen, Colin. Moral Machines: Teaching Robots Right from Wrong. — USA : Oxford University Press, 2008. — .
- Bostrom, Nick. (PDF). Cambridge Handbook of Artificial Intelligence. Cambridge Press. Архів оригіналу (PDF) за 4 березня 2016. Процитовано 13 жовтня 2019.
- Howard, Ayanna. . MIT Sloan Management Review (англ.). Архів оригіналу за 14 серпня 2019. Процитовано 14 серпня 2019.
- Muehlhauser, Luke, and Louie Helm. 2012. «Intelligence Explosion and Machine Ethics» [ 7 травня 2015 у Wayback Machine.]. In Singularity Hypotheses: A Scientific and Philosophical Assessment, edited by Amnon Eden, Johnny Søraker, James H. Moor, and Eric Steinhart. Berlin: Springer.
- Bostrom, Nick. 2003. «Ethical Issues in Advanced Artificial Intelligence» [ 8 жовтня 2018 у Wayback Machine.]. In Cognitive, Emotive and Ethical Aspects of Decision Making in Humans and in Artificial Intelligence, edited by Iva Smit and George E. Lasker, 12-17. Vol. 2. Windsor, ON: International Institute for Advanced Studies in Systems Research / Cybernetics.
- Sure, Artificial Intelligence May End Our World, But That Is Not the Main Problem // Wired : magazine. — 2014. — . — 12. з джерела 31 жовтня 2015. Процитовано 2015-11-04.
- Yudkowsky, Eliezer. 2011. «Complex Value Systems in Friendly AI» [ 29 вересня 2015 у Wayback Machine.]. In Schmidhuber, Thórisson, and Looks 2011, 388—393.
- «Partnership on Artificial Intelligence to Benefit People and Society». N.p., n.d. 24 October 2016.
- Fiegerman, Seth. «Facebook, Google, Amazon Create Group to Ease AI Concerns». CNNMoney. n.d. 4 December 2016.
- . HPCwire (англ.). 14 травня 2019. Архів оригіналу за 18 березня 2021. Процитовано 22 липня 2019.
- (англ.). Архів оригіналу за 14 травня 2019. Процитовано 22 липня 2019.
Література
- McCorduck, Pamela. Machines Who Think (2nd ed.). — Natick, MA : A. K. Peters, Ltd, 2004. — .
Посилання
- Робототехніка: етика штучного інтелекту [ 11 жовтня 2019 у Wayback Machine.] . «Чотири провідних дослідників діляться своїми проблемами і рішеннями для зниження соціальних ризиків від інтелектуальних машин». Nature, 521, 415—418 (28 травня 2015 р.), doi: 10.1038 / 521415a.(англ.)
- http://news.bbc.co.uk/1/hi/sci/tech/1809769.stm [ 31 березня 2008 у Wayback Machine.]
- Хто боїться роботів? [ 22 березня 2018 у Wayback Machine.] стаття про страх людства перед штучним інтелектом. (англ.)
- (англ.)
- AI Ethics Guidelines Global Inventory [ 30 листопада 2019 у Wayback Machine.] від Algorithmwatch [ 13 листопада 2019 у Wayback Machine.] (англ.)
Вікіпедія, Українська, Україна, книга, книги, бібліотека, стаття, читати, завантажити, безкоштовно, безкоштовно завантажити, mp3, відео, mp4, 3gp, jpg, jpeg, gif, png, малюнок, музика, пісня, фільм, книга, гра, ігри, мобільний, телефон, android, ios, apple, мобільний телефон, samsung, iphone, xiomi, xiaomi, redmi, honor, oppo, nokia, sonya, mi, ПК, web, Інтернет
E tika shtu chnogo intele ktu ye chastinoyu en sho stosuyetsya robotiv ta inshih shtuchno intelektualnih istot Vona zazvichaj podilyayetsya na roboetiku yaka virishuye pitannya moralnoyi povedinki lyudej pid chas proyektuvannya konstruyuvannya vikoristannya ta likuvannya shtuchno rozumnih istot i mashinnu etiku yaka zachipaye problemi moralnoyi povedinki shtuchnih moralnih agentiv IMA Etika robotivDokladnishe Roboetika Termin etika robotiv abo roboetika stosuyetsya moralnih aspektiv togo yak lyudi proyektuyut konstruyuyut vikoristovuyut i povodyatsya z robotami ta inshimi shtuchno intelektualnimi istotami Vona rozglyadaye yak shtuchno rozumni istoti mozhut buti vikoristani na shkodu abo v interesah lyudej Prava robotiv Prava robotiv ce koncepciya zgidno z yakoyu lyudi povinni mati moralni zobov yazannya pered svoyimi mashinami podibni do prav lyudini abo tvarin Ye propoziciya sho prava robotiv taki yak pravo na isnuvannya i vikonannya vlasnoyi misiyi mozhna pov yazati z obov yazkom robota sluzhiti lyudini za analogiyeyu z pov yazannyam prav lyudini z obov yazkami lyudini pered suspilstvom Voni mozhut vklyuchati pravo na zhittya i svobodu svobodu dumki i vislovlyuvan a takozh rivnist pered zakonom Ce pitannya rozglyadav i Ministerstvo torgivli ta promislovosti Velikoyi Britaniyi Eksperti ne mayut spilnoyi dumki chi potribni konkretni i dokladni zakoni vzhe najblizhchim chasom chi tilki u viddalenomu majbutnomu Glenn Makgi povidomlyaye sho do 2020 roku mozhe z yavitisya dosit gumanoyidnij robot Rej Kurcvejl vvazhaye sho ce vidbudetsya do 2029 roku U 2007 roci insha grupa vchenih pripuskala sho projde prinajmni 50 rokiv persh nizh zmozhe isnuvati dosit prosunuta sistema Pravila konkursu premiyi Lobnera 2003 roku peredbachali mozhlivist togo sho roboti mozhut mati vlasni prava U zhovtni 2017 roku androyid Sofiya otrimala pochesne gromadyanstvo v Saudivskij Araviyi hocha deyaki sposterigachi viznali ce shvidshe reklamnim hodom anizh osmislenim yuridichnim viznannyam Deyaki rozglyadali cej zhest yak vidkrite prinizhennya prav lyudini i verhovenstva zakonu Filosofiya en nadaye pravo na moralne stavlennya vsim chutlivim istotam peredusim lyudyam i bilshosti tvarin Yaksho shtuchni abo inoplanetni intelektualni istoti demonstruyut dokazi svoyeyi chuttyevosti cya filosofiya vvazhaye sho do nih slid proyaviti spivchuttya i nadati prava stverdzhuvala sho stvorennya ShI yakij vimagaye prav mozhna uniknuti i same po sobi neetichno sho ce bude tyagarem i dlya agentiv ShI i dlya lyudskogo suspilstva Zagroza lyudskij gidnosti Dzhozef Vejcenbaum stverdzhuvav u 1976 roci sho tehnologiya shtuchnogo intelektu ne povinna vikoristovuvatisya dlya zamini lyudej na posadah yaki vimagayut povagi i turboti takih yak spivrobitnik sluzhbi pidtrimki kliyentiv tehnologiyi ShI vzhe vikoristovuyutsya v telefonnih sistemah interaktivnih golosovih vidpovidej terapevt yak zaproponuvav v 1970 h rokah doglyadalnicya dlya litnih lyudej yak rozpovila u knizi P yate pokolinnya soldat suddya policiyant Vajzenbaum poyasnyuye sho vid lyudej na cih posadah mi ochikuyemo spravzhnogo pochuttya empatiyi Yaksho mashini yih zaminyat mi opinimosya vidchuzhenimi znecinenimi i rozcharovanimi Shtuchnij intelekt yaksho jogo vikoristovuvati takim chinom ye zagrozoyu dlya lyudskoyi gidnosti Vajzenbaum stverdzhuye sho fakt togo sho mi rozglyadayemo mozhlivist mashinam zajmati ci poziciyi govorit pro te sho mi perezhili atrofiyu lyudskogo duhu yaka vinikaye cherez te sho mi dumayemo pro sebe yak pro komp yuteri zaperechuye kazhuchi pro zhinok i menshini ya volila b riziknuti z neuperedzhenim komp yuterom vkazuyuchi na umovi za yakih mi b vvazhali za krashe mati avtomatichnih suddiv i policiyu u yakih vzagali nemaye osobistih interesiv Prote Kaplan i Henlejn pidkreslyuyut sho sistemi shtuchnogo intelektu intelektualni tochno zgidno z danimi yaki vikoristovuvalisya dlya yih navchannya oskilki za svoyeyu suttyu voni yavlyayut soboyu ne sho inshe yak mashini dlya vikoristannya shtuchnogo intelektu dlya pidtrimki sudovogo rishennya mozhe stati dosit problematichnim yaksho minuli rishennya demonstruyut uperedzhenist do pevnih grup oskilki ci uperedzhennya formalizuyutsya ta zakriplyuyutsya sho robit viyavlennya i borotbu z nimi she vazhchoyu Zasnovnik ShI Dzhon Makkarti zaperechuye proti moralizatorskogo tonu kritiki Vejzenbauma Vin pishe Koli moralizatorstvo nesamovite i rozplivchaste vono zaohochuye avtoritarne nasilstvo zaznachav sho lyudska gidnist vimagaye shob mi pragnuli usunuti nashe neznannya prirodi buttya i dlya cogo neobhidnij ShI Prozorist vidpovidalnist i vidkritij sircevij kod en stverdzhuye sho oskilki ShI duzhe vpline na lyudstvo zusillya rozrobnikiv ShI etichno mayut buti prozorimi i Devid Gart stvorili OpenCog yak frejmvork z vidkritim sircevim kodom dlya rozrobki ShI OpenAI ce nekomercijna doslidnicka kompaniya zi shtuchnogo intelektu yaku stvorili Ilon Mask Sem Altman ta inshi dlya rozrobki korisnogo dlya lyudstva programnogo zabezpechennya ShI z vidkritim sircevim kodom Isnuye bagato inshih rozrobok ShI z vidkritim sircevim kodom Na zhal vidkritist kodu ne robit jogo zrozumilim tobto ShI yakij nim zakodovano ne ye prozorim IEEE namagayetsya standartizuvati prozorist ShI Pri comu IEEE vidilyaye dlya riznih koristuvachiv dekilka stupeniv prozorosti Krim togo ye poboyuvannya sho nadannya povnogo potencialu suchasnogo ShI deyakim organizaciyam mozhe zavdati suspilstvu bilshe shkodi nizh koristi Napriklad Microsoft vislovila sturbovanist z privodu nadannya zagalnogo dostupu do svogo programnogo zabezpechennya dlya rozpiznavannya oblich navit z chisla tih hto mozhe za nogo zaplatiti Microsoft opublikuvala nezvichajnij blog na cyu temu z prohannyam pro uryadove regulyuvannya z metoyu viznachennya pravilnosti cih dij Ne tilki kompaniyi ale j bagato inshih doslidnikiv i civilni advokati rekomenduyut derzhavne regulyuvannya dlya zabezpechennya prozorosti i yak naslidok vidpovidalnosti lyudini Onovlenu zbirku spisok etiki ShI pidtrimuye organizaciyeyu AlgorithmWatch 30 listopada 2019 u Wayback Machine Cya strategiya spirna tak yak dehto poboyuyetsya sho vona prizvede do upovilnennya tempiv innovacij Inshi stverdzhuyut sho regulyuvannya prizvodit do sistemnoyi stabilnosti sho spriyaye pidtrimci innovacij u dovgostrokovij perspektivi OESR OON YeS i bagato krayin pracyuyut nad strategiyami regulyuvannya ShI i shukayut vidpovidni pravovi ramki 26 chervnya Grupa visokorivnevih ekspertiv Yevropejskoyi komisiyi zi shtuchnogo intelektu AI HLEG opublikuvala svoyi Rekomendaciyi shodo politiki ta investicij v galuzi nadijnogo shtuchnogo intelektu Ce drugij dokument AI HLEG yakij vijshov slidom za publikaciyeyu v kvitni 2019 Kerivnictva z etiki dlya nadijnogo ShI Novi rekomendaciyi stosuyutsya chotiroh osnovnih oblastej lyudi i suspilstvo v cilomu privatnij sektor derzhavnij sektor a takozh doslidzhennya i nauka Rekomendaciyi HLEG vidbivayut rozuminnya yak mozhlivostej dlya tehnologij shtuchnogo intelektu stimulyuvati ekonomichne zrostannya procvitannya ta innovaciyi tak i potencijnih rizikiv Yevropejskij Soyuz maye ambiciyi ocholiti rozrobku politik sho regulyuyut ShI u vsomu sviti Odnak yaksho Yevropa ne priskorit rozgortannya i vprovadzhennya i ne stvorit virobnichi doslidnicki ta doslidno konstruktorski potuzhnosti yiyi mozhlivosti dlya cogo budut obmezheni Uperedzhenist u sistemah ShIShI staye nevid yemnoyu chastinoyu sistem rozpiznavannya oblichchya i golosu Deyaki z cih sistem mayut realnij vpliv na biznes i lyudej Ci sistemi vrazlivi shodo uperedzhen i pomilok vnesenih tvorcyami lyudmi Krim togo dani yaki vikoristovuyutsya dlya navchannya samih cih sistem ShI mozhut mati spotvorennya Napriklad algoritmi rozpiznavannya oblich rozrobleni Microsoft IBM i Face viyavilisya neob yektivnimi koli sprava dijshla do viznachennya stati lyudej Ci sistemi shtuchnogo intelektu buli v zmozi viznachati stat bilih cholovikiv tochnishe nizh stat temnoshkirih cholovikiv She odnim prikladom neob yektivnosti ShI stalo pripinennya z boku Amazon s com Inc vikoristannya ShI dlya najmu spivrobitnikiv Algoritm nadavav perevagu kandidatam cholovikam Ce stalosya tomu sho sistema Amazon bula navchena z vikoristannyam danih zibranih za 10 richnij period yaki nadhodili perevazhno osnovnomu vid kandidativ cholovikiv Uperedzhenist mozhe potrapiti v algoritmi riznimi shlyahami V duzhe vplivovij gilci ShI vidomij yak obrobka prirodnoyi movi mozhut viniknuti problemi z tekstovogo zvodu vhidnogo materialu yakij vikoristovuye algoritm shob diznatisya pro vzayemozv yazki mizh riznimi slovami Problemu uperedzhenosti pochali doslidzhuvati ta virishuvati veliki kompaniyi taki yak IBM Google ta inshi Problema uperedzhenosti v mashinnomu navchanni jmovirno stane she serjoznishoyu oskilki tehnologiya poshiryuyetsya na taki kritichni galuzi yak medicina yurisprudenciya i oskilki zavdannya yiyi rozgortannya doruchayut vse bilshomu chislu lyudej yaki ne mayut glibokih tehnichnih znan Deyaki eksperti poperedzhayut sho algoritmichna neob yektivnist vzhe poshirena v bagatoh galuzyah i sho majzhe nihto ne robit zusil dlya yiyi viyavlennya abo vipravlennya Vidpovidalnist za chastkovo abo povnistyu bezpilotni avtomobiliYe vsi pidstavi vvazhati sho v majbutnomu neminuche shiroke vikoristannya chastkovo abo povnistyu bezpilotnih avtomobiliv Ale povnistyu avtonomni tehnologiyi stavlyat pered nami novi problemi i vikliki Ostannim chasom pidnyalisya debati z privodu yuridichnoyi vidpovidalnosti storin pri popadanni bezpilotnih avtomobiliv v avariyi V odnomu zi zvitiv avtomobil bez vodiya zbiv pishohoda i postala problema hto vinen v avariyi Nezvazhayuchi na te sho vodij pid chas avariyi perebuvav v avtomobili keruvannya povnistyu zdijsnyuvav komp yuter Neobhidno virishiti takogo rodu pitannya persh nizh bezpilotni avtomobili nabudut masovogo poshirennya Ozbroyenij shtuchnij intelektDeyaki eksperti i vcheni stavlyat pid sumniv vikoristannya robotiv u bojovih diyah osoblivo koli takim robotam nadayetsya pevnij stupin avtonomnosti VMS SShA profinansuvali dopovid u yakij zaznachayetsya sho oskilki bojovi roboti stayut vse skladnishimi slid pridilyati bilshe uvagi naslidkam yih zdibnosti prijmati samostijni rishennya Ye dumka odnogo doslidnika yakij stverdzhuye sho avtonomni roboti mozhut buti gumannishimi oskilki mozhut prijmati rishennya efektivnishe dzherelo Protyagom ostannogo desyatilittya provodilisya intensivni doslidzhennya v galuzi samonavchannya avtonomnosti z priznachuvanoyu moralnoyu vidpovidalnistyu Rezultati mozhna vikoristati pri rozrobci majbutnih vijskovih robotiv dlya kontrolyu za nebazhanimi tendenciyami pokladannya vidpovidalnosti na robotiv Z tochki zoru konsekvencializmu ye jmovirnist sho roboti budut rozvivati zdibnosti prijmati svoyi vlasni logichni rishennya pro te kogo vbivati i tomu neobhidni moralni obmezhennya yaki ShI ne zmozhe obijti Neshodavno buli protestni golosi proti rozrobki ShI zbroyi yaka vklyuchala b ideyi zahoplennya lyudstva robotom ShI zbroya nese nebezpeku inshogo rodu na vidminu vid zbroyi kontrolovanoyi lyudinoyu Bagato uryadiv uzhe pochali finansuvati programi z rozrobki ShI ozbroyennya VMS SShA neshodavno ogolosili pro plani rozrobki udarnogo bezpilotnika paralelno z analogichnimi zayavami Rosiyi ta Pivdennoyi Koreyi U zv yazku z tim sho ShI zbroya staye bilsh nebezpechnim nizh kerovana lyudinoyu zbroyu Stiven Goking i Maks Tegmark pidpisali peticiyu Majbutnye zhittya pro zaboronu ShI zbroyi U povidomlenni opublikovanomu Gokingom i Tegmarkom jdetsya sho ShI zbroya yavlyaye soboyu bezposerednyu nebezpeku i sho neobhidno vzhiti zahodiv shob uniknuti katastrofichnih naslidkiv u najblizhchomu majbutnomu Yaksho yaka nebud velika vijskova sila prosuvaye rozrobku ShI zbroyi praktichno neminucha globalna gonka ozbroyen i v pidsumku avtonomna zbroya stane avtomatom Kalashnikova zavtrashnogo dnya jdetsya v peticiyi yaku pidpisali protivniki zbrojnogo shtuchnogo intelektu zasnovnik Skype Yaan Tallinn i profesor lingvistiki Massachusetskogo tehnologichnogo institutu Noam Chomski Fizik i astronom ser Martin Ris poperedzhaye pro taki katastrofichnih prikladah yak durni roboti yaki stayut izgoyami abo merezha yaka rozvivaye vlasnij rozum kolega Risa z Kembridzha ozvuchiv podibne poperedzhennya pro te sho lyudi mozhut ne vizhiti yaksho intelekt vislizne vid biologichnih obmezhen U Kembridzhskomu universiteti stvorili en v nadiyi uniknuti ciyeyi zagrozi lyudskomu isnuvannyu Sho stosuyetsya mozhlivosti vikoristannya rozumnishih vid lyudini sistem u vijskovij spravi proyekt en pishe sho ci scenariyi zdayutsya potencijno nastilki zh vazhlivimi yak i riziki pov yazani zi vtratoyu kontrolyu ale doslidni organizaciyi yaki zajmayutsya dovgostrokovim socialnim vplivom ShI nedostatno vivchili cyu problemu cej klas scenariyiv ne buv u centri uvagi organizacij sho zajmayutsya cimi pitannyami takih yak Naukovo doslidnij institut mashinnogo intelektu MIRI ta Institut majbutnogo lyudstva FHI i tomu menshe obgovoryuvalisya Mashinna etikaMashinna etika abo mashinna moral ce galuz doslidzhen pov yazanih z rozrobkoyu shtuchnih en ShMA robotiv abo shtuchno intelektualnih komp yuteriv yaki povodyatsya moralno abo nibi moralno Shob vrahuvati prirodu cih agentiv zaproponovano rozglyanuti deyaki filosofski ideyi taki yak standartni harakteristiki racionalnih agentiv en i shtuchnoyi sub yektnosti yaki pov yazani z koncepciyeyu ShMA Ajzek Azimov rozglyanuv cyu problemu v 1950 h rokah u svoyij seriyi opovidan Ya robot Za napolyagannyam redaktora Dzhona Kempbella molodshogo dlya keruvannya shtuchno intelektualnimi sistemami vin zaproponuvav tri zakoni robototehniki Vin doklav bagato zusil dlya perevirki mezh troh jogo zakoniv shob pobachiti de voni mozhut zlamatisya abo sprichiniti paradoksalnu chi neperedbachuvanu povedinku Jogo robota peredbachaye sho zhoden iz vstanovlenih zakoniv ne mozhe dostatnoyu miroyu peredbachati vsi mozhlivi obstavini Ostannim chasom vcheni i bagato uryadiv postavili pid sumniv ideyu pro prityagnennya do vidpovidalnosti ShI Komisiya sklikana u Velikij Britaniyi v 2010 roci pereglyanula zakoni Azimova shob utochniti sho ShI nalezhit do vidpovidalnosti abo jogo virobnikiv abo jogo vlasnika operatora U 2009 roci pid chas eksperimentu v Laboratoriyi intelektualnih sistem u Politehnichnij shkoli Lozanni u Shvejcariyi roboti zaprogramovani na spivpracyu odin z odnim u poshuku korisnih resursiv ta uniknennya otrujnih vreshti resht navchilisya brehati odin odnomu namagayuchis nakopichiti korisni resursi Odniyeyu z problem u comu vipadku moglo buti te sho cili buli skinchennimi todi yak osnovni lyudski motivi zazvichaj perebuvayut u neskinchennomu navchanni Deyaki eksperti i vcheni stavlyat pid sumniv vikoristannya robotiv dlya bojovih dij osoblivo koli takim robotam nadayetsya pevna avtonomnist VMS SShA profinansuvali dopovid u yakij zaznachayetsya sho v miru uskladnennya vijskovih robotiv slid pridilyati bilshe uvagi naslidkam yih zdatnosti prijmati samostijni rishennya Vernor Vinzhi pripustiv sho mozhe nastati moment koli deyaki komp yuteri stanut rozumnishimi za lyudej nazvavshi ce yavishe singulyarnistyu Vin pripuskaye sho ce mozhe buti chastkovo abo navit duzhe nebezpechno dlya lyudini Naukovo doslidnij institut mashinnogo intelektu visloviv pripushennya pro neobhidnist stvorennya druzhnogo ShI mayuchi na uvazi sho progres yakij vzhe vidbuvayetsya z ShI mayetakozh vklyuchati zusillya spryamovani na stvorennya bilsh druzhnogo i gumannogo ShI U 2009 roci vcheni ta tehnichni eksperti vzyali uchast u konferenciyi organizovanij Asociaciyeyu z rozvitku shtuchnogo intelektu shob obgovoriti potencijnu rol robotiv i komp yuteriv i vpliv gipotetichnoyi mozhlivosti togo sho voni mozhut stati samodostatnimi i zdatnimi prijmati vlasni rishennya Voni obgovorili mozhlivist i stupin z yakim komp yuteri i roboti mogli b nabuti bud yakogo rivnya avtonomiyi i yakoyu miroyu voni mogli b vikoristovuvati taki mozhlivosti shob stanoviti pevnu zagrozu chi nebezpeku Voni vidznachili sho deyaki mashini nabuli riznih form napivavtonomnosti zokrema mozhlivosti samostijno znahoditi dzherela energiyi i samostijno vibirati cili dlya ataki zbroyeyu Voni takozh vidznachili sho deyaki komp yuterni virusi mozhut unikati znishennya i dosyagli intelektu targaniv Voni vidznachili sho samosvidomist yak zobrazheno v naukovij fantastici malojmovirna ale ye inshi potencijni nebezpeki i pidvodni kameni Prote isnuye odna tehnologiya yaka dijsno mozhe prizvesti do robotiv z moralnimi zdibnostyami U statti pro nabuttya moralnih cinnostej robotami Nayef Al Rodhan zgaduye vipadok nejromorfnih chipiv yaki pragnut obroblyati informaciyu podibno do lyudej nelinijno i z miljonami vzayemopov yazanih shtuchnih nejroniv Roboti zi vbudovanoyu nejromorfnoyu tehnologiyeyu mozhut vivchati i rozvivati znannya unikalnim chinom Ce neminuche pidnimaye pitannya pro dovkillya v yakomu taki roboti piznayut svit i moral yaku voni uspadkuyut abo yaksho voni vreshti resht takozh rozvinut lyudski slabkosti egoyizm stavlennya do vizhivannya kolivannya tosho U knizi Moralni mashini navchannya robotiv pravilnomu cherez nepravilne Vendell Vollah i Kolin Allen roblyat visnovok sho sprobi navchiti robotiv chiniti pravilno cherez nepravilno mozhut prosunuti rozuminnya lyudskoyi etiki motivuyuchi lyudej na usunennya progalin suchasnoyi normativnoyi teoriyi i nadayuchi platformu dlya eksperimentalnogo doslidzhennya Dlya prikladu vin zadaye normativnim fahivcyam z etiki spirne pitannya pro te yaki konkretni algoritmi mashinnogo navchannya potribno vikoristovuvati Nik Bostrom i Eliezer Yudkovskij navodyat argumenti na korist derev rishen takih yak ID3 proti nejronnih merezh i genetichnih algoritmiv tomu sho dereva rishen pidporyadkovuyutsya suchasnim socialnim normam prozorosti ta peredbachuvanosti napriklad stare decisis todi yak Kris Santos Lang zaperechuye sho normi bud yakogo viku mozhna zminyuvati i sho prirodna nezdatnist povnistyu zadovolniti ci konkretni normi maye vazhlive znachennya dlya togo shob zrobiti lyudej mensh urazlivimi dlya zlochinnih hakeriv Zgidno zi zvitom Centru upravlinnya ShI v Oksfordskomu universiteti za 2019 rik 82 amerikanciv vvazhayut sho neobhidno retelno keruvati robotami i ShI Obgovoryuvani problemi variyuvalisya vid togo yak ShI vikoristovuyetsya dlya stezhennya i poshirennya falshivogo vmistu v Interneti vidomogo yak gliboki fejki yaki vklyuchayut pidrobleni video i audio zgenerovani za dopomogoyu ShI do kiberatak posyagan na konfidencijnist danih uperedzhenosti pid chas najmu na robotu bezpilotnih transportnih zasobiv i droniv yaki ne vimagayut keruvannya lyudinoyu Nespodivani naslidkiBagato doslidnikiv stverdzhuyut sho vnaslidok intelektualnogo vibuhu sho stavsya des u XXI stolitti samovdoskonalyuvanij ShI mozhe stati nastilki mogutnishim vid lyudej sho mi ne zmozhemo pereshkoditi jomu dosyagti svoyih cilej U svoyij statti Etichni problemi prosunutogo shtuchnogo intelektu filosof Nik Bostrom stverdzhuye sho shtuchnij intelekt zdatnij viklikati vimirannya lyudini Vin stverdzhuye sho zagalnij nadrozum zdatnij na samostijnu iniciativu i na stvorennya vlasnih planiv i tomu jogo docilno rozglyadati yak avtonomnogo agenta Oskilki shtuchnij intelekt ne zobov yazanij rozdilyati lyudski motivaciyi rozrobniki superintelektu mali b zaklasti jogo pervisnu motivaciyu Teoretichno nadintelektualnij ShI zmozhe privesti do praktichno bud yakogo mozhlivogo rezultatu i pripiniti bud yaku sprobu pereshkoditi dosyagnennyu golovnoyi meti sho mozhe sprichiniti bagato nekontrolovanih Ce mozhe vbiti vsih inshih agentiv perekonati yih zminiti svoyu povedinku abo zablokuvati yihni sprobi vtruchannya Odnak zamist togo shob perevershiti lyudsku rasu i vesti yiyi do rujnaciyi Bostrom takozh stverdzhuye sho super intelekt mozhe dopomogti nam virishiti bagato skladnih problemi takih yak hvorobi bidnist rujnuvannya navkolishnogo seredovisha i mozhe dopomogti nam polipshiti sebe Skladnist sistem lyudskih cinnostej vede do visokoyi skladnosti stvorennya zruchnih dlya lyudini motivacij ShI Poki moralna filosofiya ne daye nam bezdogannoyi etichnoyi teoriyi funkciya korisnosti ShI mozhe dopuskati bezlich potencijno shkidlivih scenariyiv yaki vidpovidayut danij etichnij strukturi ale ne vidpovidayut zdorovomu gluzdu Za slovami Elizera Yudkovskogo u nas malo pidstav vvazhati sho shtuchno stvorenij rozum bude voloditi takoyu adaptaciyeyu zaproponuvav takij dizajn shtuchnogo intelektu yakij unikaye deyakih tipiv nenavmisnoyi povedinki zokrema samoobman nenavmisni instrumentalni diyi ta poshkodzhennya generatora vinagorod OrganizaciyiAmazon Google Facebook IBM i Microsoft stvorili nekomercijne partnerstvo dlya rozrobki peredovogo dosvidu v galuzi tehnologij shtuchnogo intelektu polipshennya rozuminnya gromadskistyu ta zabezpechennya platformi ShI Voni zayavili Ce partnerstvo shodo ShI bude provoditi doslidzhennya organizovuvati diskusiyi zabezpechuvati intelektualne liderstvo konsultuvatisya z vidpovidnimi tretimi storonami vidpovidati na pitannya gromadskosti ta zasobiv masovoyi informaciyi a takozh stvoryuvati navchalni materiali sho spriyayut rozuminnyu tehnologij ShI vklyuchno z mashinnim sprijnyattyam navchannyam i avtomatichnimi mirkuvannyami Apple priyednalasya do inshim tehnologichnih kompaniyam yak odin iz zasnovnikiv Partnerstva zi shtuchnogo intelektu v sichni 2017 roku Korporativni uchasniki budut robiti finansovij i doslidnickij vnesok u robotu grupi vzayemodiyuchi z naukovoyu spilnotoyu shob zaluchiti vchenih do radi direktoriv IEEE rozrobiv Globalnu iniciativu z etiki avtonomnih ta intelektualnih sistem 6 zhovtnya 2019 u Wayback Machine yaka rozroblyaye i pereglyadaye za dopomogoyu gromadskoyi dumki metodichni rekomendaciyi Tradicijno gromadskist vikoristovuye uryad dlya kontrolyu vidpovidnosti etici ramok zakonodavstva i pravoporyadku Nini nacionalni uryadi a takozh mizhnarodni uryadovi ta neuryadovi organizaciyi dokladayut bagato zusil dlya zabezpechennya etichnogo zastosuvannya ShI Yevropejska komisiya maye ekspertnu grupu visokogo rivnya zi shtuchnogo intelektu 24 zhovtnya 2019 u Wayback Machine OESR zi shtuchnogo intelektu 22 lipnya 2019 u Wayback Machine V SShA administraciya Obami rozrobila Dorozhnyu kartu dlya politiki v galuzi ShI 22 sichnya 2021 u Wayback Machine posilannya na zvit Harvard Business Review Administraciya Obami vipustila dva pomitnih dokumenti pro majbutnye i vpliv ShI Na sichen 2019 roku administraciya Trampa ne brala aktivnoyi uchasti v regulyuvanni ShI en CCC vklyuchiv proekt dopovidi sho mistit bilshe 100 storinok 20 richnu dorozhnyu kartu spilnoti dlya doslidzhen v galuzi shtuchnogo intelektu v SShAV hudozhnij literaturiFilm Trinadcyatij poverh pokazuye majbutnye v yakomu na gralnih konsolyah stvoryuyutsya dlya rozvagi simulovani sviti z rozumnimi meshkancyami Film Matricya pokazuye majbutnye de dominivnim vidom na planeti Zemlya ye rozumni mashini a lyudstvo zaznaye granichnoyi diskriminaciyi V opovidanni Grega Igena en zobrazheno majbutnye v yakomu lyudstvo peretvorilosya na programne zabezpechennya yake mozhna dublyuvati j optimizuvati a programne zabezpechennya vidpovidno podilyayut na chutlive i ne chutlive Cyu zh ideyu znahodimo v yaka ye yavno rozumnoyu kopiyeyu zmenshenoyi pidmnozhini svidomosti yiyi tvorcya yakij z najkrashimi namirami stvoriv sistemu nadannya ekstrenoyi medichnoyi dopomogi U filmah Dvohsotlitnya lyudina i Shtuchnij rozum rozglyadayutsya mozhlivosti rozumnih robotiv yaki mozhut lyubiti Ya Robot pokazav deyaki aspekti troh zakoniv robototehniki Azimova Vsi voni namagayutsya peredbachiti mozhlivo neetichni naslidki stvorennya rozumnih komp yuteriv Etika shtuchnogo intelektu ye odniyeyu z osnovnih tem u seriyi igor BioWare Mass Effect Vona rozglyadaye scenarij v yakomu civilizaciya vipadkovo stvorila ShI zavdyaki shvidkomu zbilshennya obchislyuvalnoyi potuzhnosti ta vikoristannyu globalnoyi nejronnoyi merezhi Cya podiya viklikala etichnij rozkol mizh timi hto vvazhav sho rozumnih Getiv mozhna nadiliti organichnimi pravami i timi hto prodovzhuvav rozglyadati yih yak odnorazovij mehanizm i borovsya za yih znishennya Krim pochatkovogo konfliktu she odniyeyu postijnoyu temoyu vsiyeyi istoriyi ye skladnist vidnosin mizh mashinami i yihnimi tvorcyami Div takozh en Modelyuvannya svidomosti Silnij i slabkij shtuchni intelekti Komp yuterna etika Efektivnij altruyizm dovgostrokove majbutnye i globalni katastrofichni riziki en Zakoni robototehniki Filosofiya shtuchnogo intelektu Roboetika en en Doslidniki Nik Bostrom en Rej Kurcvejl en Piter Norvig en Elizer Yudkovskij Organizaciyi en en en Naukovo doslidnij institut mashinnogo intelektu en PrimitkiVeruggio Gianmarco The Roboethics Roadmap Scuola di Robotica 2007 28 June en Posthuman Rights Dimensions of Transhuman Worlds Teknokultura 2015 T 12 2 28 June DOI 10 5209 rev TK 2015 v12 n2 49072 Yurii Sheliazhenko Artificial Personal Autonomy and Concept of Robot Rights European journal of law and political sciences 2017 28 June z dzherela 14 lipnya 2018 Procitovano 2017 05 10 The American Heritage Dictionary of the English Language Fourth Edition BBC News 21 grudnya 2006 Arhiv originalu za 15 zhovtnya 2019 Procitovano 3 sichnya 2010 Henderson Mark 24 kvitnya 2007 The Times Online The Times of London Arhiv originalu za 17 travnya 2008 Procitovano 2 travnya 2010 McGee Glenn The Scientist Arhiv originalu za 6 veresnya 2020 Procitovano 13 grudnya 2020 Ray Kurzweil The Singularity is Near Penguin Books 2005 ISBN 978 0 670 03384 3 Independent Newspaper Arhiv originalu za 27 zhovtnya 2017 Procitovano 13 grudnya 2020 Vincent James 30 zhovtnya 2017 The Verge Arhiv originalu za 3 serpnya 2019 Procitovano 13 grudnya 2020 Close engagements with artificial companions key social psychological ethical and design issues Amsterdam John Benjamins Pub Co 2010 ISBN 978 9027249944 Joseph Weizenbaum quoted in McCorduck 2004 s 356 374 376 Arhiv originalu za 21 listopada 2018 Procitovano 10 zhovtnya 2019 Hibbard Bill 2014 Ethical Artificial Intelligence Open Source AI 4 bereznya 2016 u Wayback Machine Bill Hibbard 2008 proceedings of the First Conference on Artificial General Intelligence eds Pei Wang Ben Goertzel and Stan Franklin OpenCog A Software Framework for Integrative Artificial General Intelligence 4 bereznya 2016 u Wayback Machine David Hart and Ben Goertzel 2008 proceedings of the First Conference on Artificial General Intelligence eds Pei Wang Ben Goertzel and Stan Franklin Inside OpenAI Elon Musk s Wild Plan to Set Artificial Intelligence Free 27 kvitnya 2016 u Wayback Machine Cade Metz Wired 27 April 2016 P7001 Transparency of Autonomous Systems IEEE Arhiv originalu za 10 sichnya 2019 Procitovano 10 sichnya 2019 Thurm Scott 13 lipnya 2018 Wired Arhiv originalu za 9 travnya 2019 Procitovano 13 grudnya 2020 Bastin Roland 2017 06 PDF Inside magazine Deloitte Arhiv originalu PDF za 10 sichnya 2019 Procitovano 13 grudnya 2020 UN News angl 7 chervnya 2017 Arhiv originalu za 26 lipnya 2019 Procitovano 26 lipnya 2019 www oecd org angl Arhiv originalu za 22 lipnya 2019 Procitovano 26 lipnya 2019 Anonymous 14 chervnya 2018 Digital Single Market European Commission angl Arhiv originalu za 1 serpnya 2019 Procitovano 26 lipnya 2019 Center for Democracy amp Technology angl Arhiv originalu za 9 serpnya 2019 Procitovano 9 serpnya 2019 Society DeepMind Ethics amp 14 bereznya 2018 Medium angl Arhiv originalu za 22 lipnya 2019 Procitovano 22 lipnya 2019 TechCrunch angl Arhiv originalu za 18 bereznya 2021 Procitovano 22 lipnya 2019 Knight Will MIT Technology Review angl Arhiv originalu za 4 lipnya 2019 Procitovano 22 lipnya 2019 Villasenor John 3 sichnya 2019 Brookings angl Arhiv originalu za 22 lipnya 2019 Procitovano 22 lipnya 2019 Lohr Steve 9 lyutogo 2018 The New York Times angl Arhiv originalu za 9 sichnya 2019 Procitovano 29 travnya 2019 Reuters angl 10 zhovtnya 2018 Arhiv originalu za 27 travnya 2019 Procitovano 29 travnya 2019 techxplore com angl Arhiv originalu za 25 lipnya 2019 Procitovano 26 lipnya 2019 Olson Parmy Forbes angl Arhiv originalu za 26 lipnya 2019 Procitovano 26 lipnya 2019 Google Developers angl Arhiv originalu za 10 serpnya 2019 Procitovano 26 lipnya 2019 www research ibm com angl REPLACE Arhiv originalu za 17 lipnya 2019 Procitovano 26 lipnya 2019 Knight Will MIT Technology Review angl Arhiv originalu za 4 lipnya 2019 Procitovano 26 lipnya 2019 Davies Alex 29 lyutogo 2016 Wired Arhiv originalu za 7 lipnya 2019 Procitovano 26 lipnya 2019 Levin Sam 19 bereznya 2018 The Guardian angl Arhiv originalu za 26 lipnya 2019 Procitovano 26 lipnya 2019 Futurism angl Arhiv originalu za 26 lipnya 2019 Procitovano 26 lipnya 2019 Radio Business Knowledge Wharton angl Arhiv originalu za 26 lipnya 2019 Procitovano 26 lipnya 2019 Delbridge Emily The Balance angl Arhiv originalu za 29 travnya 2019 Procitovano 29 travnya 2019 GOV UK angl Arhiv originalu za 26 lipnya 2019 Procitovano 26 lipnya 2019 cyberlaw stanford edu Arhiv originalu za 26 lipnya 2019 Procitovano 26 lipnya 2019 www ncsl org Arhiv originalu za 26 lipnya 2019 Procitovano 26 lipnya 2019 Call for debate on killer robots 7 serpnya 2009 u Wayback Machine By Jason Palmer Science and technology reporter BBC News 8 3 09 Robot Three Way Portends Autonomous Future 7 listopada 2012 u Wayback Machine By David Axe wired com August 13 2009 Navy report warns of robot uprising suggests a strong moral compass 4 chervnya 2011 u Wayback Machine by Joseph L Flatley engadget com Feb 18th 2009 Arhiv originalu za 5 lipnya 2019 Procitovano 13 grudnya 2020 Mitra Ambarish Quartz angl Arhiv originalu za 26 lipnya 2019 Procitovano 26 lipnya 2019 Future of Life Institute angl Arhiv originalu za 11 grudnya 2017 Procitovano 26 lipnya 2019 Zach Musgrave and Bryan W Roberts 14 serpnya 2015 The Atlantic Arhiv originalu za 11 kvitnya 2017 Procitovano 13 grudnya 2020 Cat Zakrzewski 27 lipnya 2015 WSJ Arhiv originalu za 28 lipnya 2015 Procitovano 13 grudnya 2020 GiveWell Zvit Arhiv originalu za 12 zhovtnya 2015 Procitovano 13 grudnya 2020 Anderson Arhiv originalu za 28 veresnya 2011 Procitovano 27 chervnya 2011 Machine Ethics Anderson Michael Anderson Susan Leigh Cambridge University Press 2011 ISBN 978 0 521 11235 2 Special Issue on Machine Ethics en journal Vol 21 no 4 P 10 63 ISSN 1541 1672 DOI 10 1109 mis 2006 70 z dzherela 26 listopada 2011 Michael Anderson Machine Ethics Creating an Ethical Intelligent Agent AI Magazine journal Vol 28 no 4 P 15 26 ISSN 0738 4602 z dzherela 18 veresnya 2020 Procitovano 13 grudnya 2020 Robert James M Boyles Philosophical Signposts for Artificial Moral Agent Frameworks Suri journal 2017 Vol 6 no 2 10 P 92 109 z dzherela 7 bereznya 2022 Procitovano 13 grudnya 2020 Joanna Bryson Of for and by the people the legal lacuna of synthetic persons Artificial Intelligence and Law journal 2017 Vol 25 no 3 9 P 273 291 DOI 10 1007 s10506 017 9214 9 UK s EPSRC 2010 09 Arhiv originalu za 1 kvitnya 2018 Procitovano 10 sichnya 2019 Evolving Robots Learn To Lie To Each Other 28 serpnya 2009 u Wayback Machine Popular Science August 18 2009 Santos Lang Chris Arhiv originalu za 25 grudnya 2014 Procitovano 13 grudnya 2020 Scientists Worry Machines May Outsmart Man 1 lipnya 2017 u Wayback Machine By JOHN MARKOFF NY Times July 26 2009 The Coming Technological Singularity How to Survive in the Post Human Era 1 sichnya 2007 u Wayback Machine by Vernor Vinge Department of Mathematical Sciences San Diego State University c 1993 by Vernor Vinge Al Rodhan Nayef 12 serpnya 2015 Foreign Affairs angl Arhiv originalu za 5 bereznya 2017 Procitovano 23 sichnya 2018 Wallach Wendell Allen Colin Moral Machines Teaching Robots Right from Wrong USA Oxford University Press 2008 ISBN 978 0 19 537404 9 Bostrom Nick PDF Cambridge Handbook of Artificial Intelligence Cambridge Press Arhiv originalu PDF za 4 bereznya 2016 Procitovano 13 zhovtnya 2019 Howard Ayanna MIT Sloan Management Review angl Arhiv originalu za 14 serpnya 2019 Procitovano 14 serpnya 2019 Muehlhauser Luke and Louie Helm 2012 Intelligence Explosion and Machine Ethics 7 travnya 2015 u Wayback Machine In Singularity Hypotheses A Scientific and Philosophical Assessment edited by Amnon Eden Johnny Soraker James H Moor and Eric Steinhart Berlin Springer Bostrom Nick 2003 Ethical Issues in Advanced Artificial Intelligence 8 zhovtnya 2018 u Wayback Machine In Cognitive Emotive and Ethical Aspects of Decision Making in Humans and in Artificial Intelligence edited by Iva Smit and George E Lasker 12 17 Vol 2 Windsor ON International Institute for Advanced Studies in Systems Research Cybernetics Sure Artificial Intelligence May End Our World But That Is Not the Main Problem Wired magazine 2014 12 z dzherela 31 zhovtnya 2015 Procitovano 2015 11 04 Yudkowsky Eliezer 2011 Complex Value Systems in Friendly AI 29 veresnya 2015 u Wayback Machine In Schmidhuber Thorisson and Looks 2011 388 393 Partnership on Artificial Intelligence to Benefit People and Society N p n d 24 October 2016 Fiegerman Seth Facebook Google Amazon Create Group to Ease AI Concerns CNNMoney n d 4 December 2016 HPCwire angl 14 travnya 2019 Arhiv originalu za 18 bereznya 2021 Procitovano 22 lipnya 2019 angl Arhiv originalu za 14 travnya 2019 Procitovano 22 lipnya 2019 LiteraturaMcCorduck Pamela Machines Who Think 2nd ed Natick MA A K Peters Ltd 2004 ISBN 1 56881 205 1 PosilannyaRobototehnika etika shtuchnogo intelektu 11 zhovtnya 2019 u Wayback Machine Chotiri providnih doslidnikiv dilyatsya svoyimi problemami i rishennyami dlya znizhennya socialnih rizikiv vid intelektualnih mashin Nature 521 415 418 28 travnya 2015 r doi 10 1038 521415a angl http news bbc co uk 1 hi sci tech 1809769 stm 31 bereznya 2008 u Wayback Machine Hto boyitsya robotiv 22 bereznya 2018 u Wayback Machine stattya pro strah lyudstva pered shtuchnim intelektom angl angl AI Ethics Guidelines Global Inventory 30 listopada 2019 u Wayback Machine vid Algorithmwatch 13 listopada 2019 u Wayback Machine angl