Машинна етика (або машинна мораль, обчислювальна мораль або обчислювальна етика) є частиною етики штучного інтелекту, яка стосується надання моральної поведінки машинам, що використовують штучний інтелект, інакше відомих як інтелектуальні агенти. Машинна етика відрізняється від інших етичних сфер, пов'язаних з технікою та технологіями. Машину етику не слід плутати з комп'ютерною етикою, що орієнтована на використання комп'ютера людьми. Її також слід відрізняти від філософії технології, яка стосується значних соціальних наслідків технології.
Історія
До 21 століття машинна етика в основному була предметом науково-фантастичної літератури, головним чином через обмежені можливості обчислювальної техніки та штучного інтелекту. Хоча з тих пір визначення «машинної етики» значно еволюціонувало, сам термін був введений Мітчеллом Уолдропом у 1987 році у статті журналу AI Magazine, яка звалася «Питання відповідальності» :
"Позаяк, одне, що видно з наведеного вище обговорення, полягає в тому, що інтелектуальні машини будуть втілювати цінності, ідеї та цілі, незалежно від того, планують їх програмісти свідомо чи ні. Таким чином, коли комп'ютери та роботи стають дедалі більш інтелектуальними, надзвичайно важливо, щоб ми ретельно і чітко продумували, які ці вбудовані цінності. Можливо, нам і справді потрібна теорія і практика машинної етики, в дусі трьох законів робототехніки А.Азімова ".
У книзі На шляху до машинної етики, яка була представлена на семінарі AAAI з питань агентських організацій: теорія та практика у 2004 році, були викладені теоретичні основи машинної етики.
Питання про впровадження етичного виміру в автономних системах розглянули на симпозіумі AAAI з питань машинної етики восени 2005 року, де дослідники вперше зібрались. Різноманітні перспективи розвитку цього нового терміну можна знайти у зібраному виданні «Машинна етика», що надруковане із матеріалів симпозіуму AAAI восени 2005 року з машинної етики.
У 2007 р. у журналі AI Magazine була представлена стаття Машинна етика: створення етичного інтелектуального агента, в якій обговорювалося значення машинної етики, та необхідність в машинах, що чітко представляють етичні принципи, та проблеми, що стоять перед тими, хто працює над машинною етикою. Вона також продемонструвала, що машина, принаймні в обмеженій області, може абстрагувати етичний принцип від прикладів етичних суджень і використовувати цей принцип для управління власною поведінкою.
У 2009 р. видавництво Оксфордського університету опублікувало «Моральні машини», «Навчання роботів прямо з помилки», яку рекламували як «першу книгу, що вивчає проблему побудови штучних моральних агентів, глибоко досліджуючи природу прийняття рішень та етики людини». Тут процитовано більш як 450 джерел, близько 100 з яких стосувалися основних питань машинної етики.
У 2011 р. видавництво Кембриджського університету опублікувало збірник нарисів про машину етику під редакцією Майкла та Сьюзен Лі Андерсон, які також відредагували спеціальний випуск IEEE Intelligent Systems на цю тему в 2006 р. Збірка складається з питань, пов'язаних з проблемами додавання етичних принципів машинам.
У 2014 році оголосило, що протягом п'яти років розподілить 7,5 мільйона доларів грантів університетським дослідникам для вивчення питань машинної етики автономних роботів. Книга Ніка Бострома , в якій він розглянув етику машин як «найважливішу … проблему, з якою коли-небудь стикалося людство», досягла 17 місця у списку найбільш продаваних наукових книг у переліку «Нью-Йорк Таймс».
У 2016 році Європейський парламент опублікував документ (22-сторінковий PDF), щоб заохотити Комісію зайнятися питанням правового статусу роботів. Цей документ включав розділи, що стосуються юридичних зобов'язань роботів, за якими відповідальність встановлювалася пропорційно рівню автономності роботів. Документ також ставить під сумнів кількість робочих місць, які можуть бути замінені роботами зі ШІ.
Визначення
, один з теоретиків-новаторів у галузі комп'ютерної етики, визначає чотири типи етичних роботів. Як потужний дослідник вивчення філософії штучного інтелекту, філософії розуму, філософії науки та логіки, Мур визначає машини як агенти етичного впливу, неявні етичні агенти, явні етичні агенти або повністю етичні агенти. Машина може бути кількома агентами.
- Етичні агенти впливу: це машинні системи, які здійснюють або не здійснюють етичний вплив за призначенням. У той же час ці агенти можуть діяти неетично. Мур наводить гіпотетичний приклад, який називається «агент Гудмана», названий на честь філософа . Агент Гудмана порівнює дати, але має помилку тисячоліття. Ця помилка виникла через програмістів, які представляли дати лише з двома останніми цифрами року. Тож будь-які дати після 2000 року будуть вважатися більш ранніми ніж ті, що були наприкінці ХХ століття. Таким чином, агент Гудмана був етичним агентом впливу до 2000 року, а неетичним агентом впливу після цього.
- Неявні етичні агенти: Для розгляду людської безпеки, ці агенти запрограмовані бути відмовостійкими, або мають вбудовану доброчесність. Вони мають не цілком етичний характер, а скоріше запрограмовані на уникнення неетичних результатів.
- Явні етичні агенти: це машини, які здатні обробляти сценарії та діяти за етичними рішеннями. Машини, які мають алгоритми етичної поведінки.
- Повноцінні етичні агенти: ці машини подібні до явних етичних агентів, оскільки вони можуть приймати етичні рішення. Однак вони також містять метафізичні особливості людини (тобто мають свободу волі, свідомість та навмисність).
(Див. [en].)
Основні напрямки машинної етики
Проблема управління ШІ
Деякі вчені, такі як філософ Нік Бостром та дослідник ШІ , стверджують, що якщо ШІ перевершить людство в загальному інтелекті і стане " надінтелектуальним ", тоді цей новий суперінтелект може стати надто потужним та некерованим: подібно до того, як залежить доля від людської доброзичливості, так, можливо, доля людства залежатиме від дій майбутнього машинного суперінтелекту. У своїх відповідних книгах " " і " " обидва вчені стверджують, що, хоча існує велика невизначеність щодо майбутнього ШІ, ризик для людства є досить високим, щоб розпочати діяти вже в даний час.
Це і представляє : як створити інтелектуального агента, який допоможе його творцям, уникаючи разом з тим ненавмисної побудови суперінтелекту, що матиме змогу зашкодити його творцям. Небезпека неправильного проектування контролю «з першого разу» полягає в тому, що суперінтелект зможе захопити владу над своїм оточенням і перешкодити людям вимкнути його. Можливі стратегії управління ШІ включають «контроль здібностей» (обмеження здатності ШІ впливати на світ) та «мотиваційний контроль» (побудова ШІ, цілі якого узгоджуються з людськими цінностями). Існує ряд організацій, які досліджують проблему управління ШІ, зокрема Інститут майбутнього людства, Інститут досліджень машинного інтелекту, Центр сумісного з людьми штучного інтелекту та Інститут майбутнього життя.
Алгоритми та навчання
Обговорювались парадигми ШІ, особливо щодо їх ефективності та упередженості. Нік Бостром та Еліезер Юдковський надають аргументи щодо дерев ухвалення рішень (таких як ID3) через нейронні мережі та генетичні алгоритми на тій підставі, що дерева рішень підкоряються сучасним соціальним нормам прозорості та передбачуваності (наприклад, судовий прецедент). На противагу цьому Кріс Сантос-Ланг аргументував свою підтримку нейронних мереж та генетичних алгоритмів на тій підставі, що нормам будь-якого віку необхідно дозволити змінюватися, і що природна нездатність повністю задовольнити ці конкретні норми має важливе значення для того, щоб зробити людей менш вразливими, ніж машини до злочинних «хакерів».
У 2009 році в експерименті в Лабораторії інтелектуальних систем в Політехнічному університеті Ecole в Лозанні, Швейцарія, роботам зі ШІ було запрограмовано співпрацю між собою та завданням пошуку корисного ресурсу, уникаючи отруйних ресурсів. Під час експерименту роботи були згруповані в клани, а цифровий генетичний код успішних членів був використаний для наступного покоління, типу алгоритму, відомого як генетичний алгоритм. Після 50 послідовних поколінь у ШІ члени одного клану виявили, як відрізнити корисний ресурс від отруйного. Потім роботи навчились брехати один одному, намагаючись накопичити корисний ресурс на відміну від інших роботів. У тому ж експерименті ті самі роботи ШІ також навчились поводитися безкорисливо і сигналізували про небезпеку для інших роботів, а також рятуванню інших роботів ціною власної загибелі. Наслідки цього експерименту були оскаржені дослідниками машинними етики. В експерименті Ecole Polytechnique Fédérale цілі роботів були запрограмовані на «кінцеві». На відміну від людських мотивів які, як правило, вимагають нескінченного навчання.
Автономні системи озброєння
У 2009 році науковці та технічні експерти відвідали конференцію, на якій обговорили потенційний вплив роботів та комп'ютерів та вплив гіпотетичної можливості того, що вони можуть стати самодостатніми та здатними приймати власні рішення. Вони обговорили можливість та ступінь, в якій комп'ютери та роботи можуть отримати будь-який рівень автономності, і наскільки вони можуть використовувати такі здібності, щоб представляти будь-яку загрозу чи небезпеку для людства. Експерти відзначили, що деякі машини отримали різні форми напівавтономії, включаючи можливість самостійно знаходити джерела живлення та можливість самостійно вибирати цілі для збройної атаки. Також зазначили, що деякі комп'ютерні віруси можуть ухилитися від ліквідації та досягли «інтелекту тарганів». Та зауважили, що самосвідомість, як у науковій фантастиці, мабуть, малоймовірна, але існують інші потенційні небезпеки та підводні камені.
Деякі експерти та науковці ставлять під сумнів використання роботів для військового бою, особливо коли таким роботам надається певна ступінь автономних функцій. Військово-морські сили США профінансували звіт, який вказує, що в міру ускладнення військових роботів слід приділяти більше уваги наслідкам їх здатності приймати самостійні рішення. Президент Асоціації сприяння розвитку штучного інтелекту доручив провести дослідження, щоб, більш детально розглянути це питання. Вони вказують на такі програми, як пристрій для вивчення мови, який може імітувати людську взаємодію.
Інтеграція штучного загального інтелекту з суспільством
Проведена попередня робота над методами інтеграції штучного загального інтелекту (повноцінних етичних агентів) з існуючими правовими та соціальними нормами. Підходи були зосереджені на врахуванні їх юридичного становища та прав.
Упередження машинного навчання
Масиви даних (так звані Big data) та алгоритми машинного навчання стали популярними серед багатьох галузей, включаючи Інтернет-рекламу, кредитні рейтинги та навіть кримінальні вироки, з обіцянкою забезпечити більш об'єктивні результати, керування даними, але разом з тим визначені потенційним джерелом для продовження соціальної нерівності та дискримінації. Дослідження 2015 року показало, що жінкам рідше показуватимуть оголошення про роботу з високим рівнем доходу за допомогою Google AdSense. Інше дослідження показало, що служба доставки Amazon того ж дня була навмисно недоступна в чорних кварталах. І Google, і Amazon не змогли об'єднати ці випадки в одне питання, але натомість пояснили, що результати були наслідками алгоритмів чорного ящика, які вони використовували.
Судова система США почала використовувати програмне забезпечення кількісної оцінки ризику під час прийняття рішень, пов'язаних із звільненням людей під заставу та призначенням покарання, намагаючись бути більш справедливим та зменшити і без того високий рівень ув'язнень. Ці інструменти аналізують кримінальну історію обвинуваченого та інші ознаки. У дослідженні 7000 осіб, заарештованих у окрузі Брауард, штат Флорида, лише 20 % осіб, яким прогнозувалося вчинення злочину, використовуючи систему оцінки ризику в окрузі, вчинили його. У звіті ProPublica за 2016 р. було проаналізовано оцінки ризику рецидиву, розраховані за допомогою одного з найбільш часто використовуваних інструментів — системи , та розглянуто результати за два роки. Звіт виявив, що лише 61 % з тих, кого вважають особами з високим ризиком, здійснили додаткові злочини протягом вказаного періоду. У звіті також зазначається, що афроамериканським підсудним набагато частіше виставляли оцінки високого ризику порівняно з білими підсудними.
У 2016 році Робоча група адміністрації Обами — наглядач за різними регуляторними рамками щодо Big data — випустила звіти, в яких аргументується «потенціал кодування дискримінації в автоматизованих рішеннях» і закликає до «рівних можливостей за проектом» для таких додатків, як кредит рейтинг. Звіти заохочують дискусії серед політиків, громадян та науковців, але визнають, що вони не мають потенційного рішення для кодування упередженості та дискримінації в алгоритмічні системи
Етичні рамки та практики
У березні 2018 року, намагаючись вирішити зростаючі занепокоєння щодо впливу машинного навчання на права людини, Світовий економічний форум та опублікували довідку [ 23 січня 2021 у Wayback Machine.] з докладними рекомендаціями щодо того, як найкраще запобігти дискримінаційним результатам машинного навчання. Світовий економічний форум розробив чотири рекомендації, засновані на Керівних принципах прав людини ООН, щоб допомогти вирішити та запобігти дискримінаційним результатам машинного навчання.
Рекомендації Світового економічного форуму такі:
- Активна інклюзія: розробники та дизайнери додатків для машинного навчання повинні активно шукати різноманітні вхідні дані, особливо норми та цінності конкретних груп населення, на які впливає вихід систем ШІ.
- Чесність: Люди, які беруть участь у концептуалізації, розробці та впровадженні систем машинного навчання, повинні розглянути, яке визначення справедливості найкраще стосується їх контексту та застосування, і визначити його пріоритетом в архітектурі системи машинного навчання та в показниках її оцінки.
- Право на розуміння: Залучення систем машинного навчання до процесу прийняття рішень, що стосується індивідуальних прав, повинно розкриватися, а системи повинні мати можливість надавати пояснення щодо прийняття ними рішень, які є зрозумілими для кінцевих користувачів та перевіряються компетентним органом влади. Там, де це неможливо і ставляться на карту права, керівники у розробці, впровадженні та регулюванні технологій машинного навчання повинні поставити під сумнів, чи слід їх використовувати чи ні
- Доступ до компенсації: Керівники, дизайнери та розробники систем машинного навчання несуть відповідальність за виявлення потенційних негативних наслідків їхніх прав на права людини. Вони повинні зробити осяжними способи відшкодування для тих, хто постраждав від неоднакових наслідків, і встановити процеси для своєчасного відшкодування будь-яких дискримінаційних результатів.
У січні 2020 року Гарвардського університету опублікував мета-дослідження з 36 відомих наборів принципів для ШІ, визначивши вісім ключових тем: приватність, підзвітність, безпека та охорона, прозорість та пояснюваність, справедливість та недискримінація, людський контроль над технологіями, професійна відповідальність та просування людських цінностей. Подібне мета-дослідження було проведене дослідниками Швейцарського федерального технологічного інституту в Цюріху в 2019 році.
Підходи
Було зроблено кілька спроб зробити етику обчислюваною або, принаймні, формальною. Тоді як Три закони робототехніки Айзека Азімова, як правило, не вважаються придатними для штучного морального агента, було вивчено, чи можна використовувати категоричний імператив Канта. Однак було зазначено, що цінність людини в деяких аспектах дуже складна. Явним шляхом подолання цього ускладнення є отримання людських цінностей безпосередньо від людей за допомогою якогось механізму, наприклад шляхом їх вивчення. Інший підхід полягає в тому, щоб поточні етичні міркування базувалися на попередніх подібних ситуаціях. Це називається казуїстикою, і вона може бути реалізована шляхом досліджень в Інтернеті. Консенсус з мільйона минулих рішень призведе до нового рішення, яке залежить від демократії. Однак, разом з тим, це може призвести до рішень, що відображають упередження та неетичну поведінку, які проявляються у суспільстві. Негативні наслідки цього підходу можна побачити в Microsoft, де балакун навчився повторювати расистські та сексуально заряджені повідомлення, надіслані користувачами Twitter.
В одному з експериментів, що пропонується читачу, мислення фокусується на Джині Големі з необмеженими можливостями. Цей Джин заявляє, що він повернеться через 50 років, і вимагає, щоб він отримав певний набір моралі, на основі якого він потім діятиме. Мета цього експерименту — розпочати дискусію про те, як найкраще впоратись із визначенням повного набору етики, яку можуть зрозуміти комп'ютери.
У художній літературі
У науковій фантастиці фільми та романи давно розглядали проблеми існування розуму в роботах та машинах.
У фільмі Чаппі (2015) Ніла Бломкампа показано можливий сценарій перенесення своєї свідомісті у комп'ютер. Фільм Ex Machina (2014) Алекса Гарланда зображує андроїда зі штучним інтелектом, який пройшов варіацію тесту Тьюрінга — тесту, який проводили на машині, щоб побачити, чи можна її поведінку відрізнити від поведінки людини. Такі роботи, як Terminator (1984) та The Matrix (1999), включають концепцію машин, що вмикають своїх людських господарів (див. Штучний інтелект).
Айзек Азімов розглядав цю проблему в 1950-х роках у збірці науково-фантастичних оповідань Я, робот. За наполяганням свого редактора Джона Кемпбелла-молодшого він запропонував Три закони робототехніки для управління штучними інтелектуальними системами. Потім велика частина його роботи була проведена, перевіряючи межі трьох його законів, щоб побачити, де вони будуть порушені або де вони створять парадоксальну або непередбачувану поведінку. Його робота свідчить про те, що жоден набір фіксованих законів не може в достатній мірі передбачити всі можливі обставини. У романі Філіпа К. Діка « (Чи мріють андроїди про електричних овець»?) (1968), він досліджує, що означає бути людиною. У своєму постапокаліптичному сценарії він сумнівався, чи емпатія є цілком людською характеристикою. Його історія стала основою для науково-фантастичного фільму «Той, хто біжить по лезу» (1982).
Пов'язані поняття
Див. також
Примітки
- Moor, J.H. (2006). The Nature, Importance, and Difficulty of Machine Ethics. IEEE Intelligent Systems. 21 (4): 18—21. doi:10.1109/MIS.2006.80.
- Boyles, Robert James. (PDF). Kritike. Архів оригіналу (PDF) за 1 листопада 2019. Процитовано 1 листопада 2019.
- Waldrop, Mitchell (Spring 1987). A Question of Responsibility. AI Magazine. 8 (1): 28—39. doi:10.1609/aimag.v8i1.572.
- Anderson, M., Anderson, S., and Armen, C. (2004) «Towards Machine Ethics» in Proceedings of the AAAI Workshop on Agent Organization: Theory and Practice, AAAI Press
- AAAI Workshop on Agent Organization: Theory and Practice, AAAI Press
- . Архів оригіналу за 29 листопада 2014.
- Anderson, Michael; Anderson, Susan Leigh, ред. (July 2011). Machine Ethics. Cambridge University Press. ISBN .
- Anderson, M. and Anderson, S. (2007). Creating an Ethical Intelligent Agent [ 1 жовтня 2020 у Wayback Machine.]. AI Magazine, Volume 28(4).
- Wallach, Wendell; Allen, Colin (2009). Moral machines : teaching robots right from wrong. Oxford University Press. ISBN .
- Anderson, Michael; Anderson, Susan Leigh, ред. (July–August 2006). . IEEE Intelligent Systems. 21 (4): 10—63. doi:10.1109/mis.2006.70. ISSN 1541-1672. Архів оригіналу за 26 листопада 2011.
- Siler, Cory (2015). . Artificial Intelligence. 229: 200—201. doi:10.1016/j.artint.2015.08.013. Архів оригіналу за 7 листопада 2019. Процитовано 7 листопада 2019.
- Tucker, Patrick (13 травня 2014). . Defense One. Архів оригіналу за 1 липня 2014. Процитовано 9 липня 2014.
- . New York Times. New York Times. 8 вересня 2014. Архів оригіналу за 25 серпня 2018. Процитовано 9 листопада 2014.
- . European Commission. Архів оригіналу за 29 грудня 2016. Процитовано 12 січня 2017.
- Wakefield, Jane (12 січня 2017). . BBC News. Архів оригіналу за 12 січня 2017. Процитовано 12 січня 2017.
- . European Parliament. Архів оригіналу за 3 грудня 2019. Процитовано 8 листопада 2019.
- Moor, James M. (2009). . Philosophy Now. Архів оригіналу за 26 лютого 2021. Процитовано 19 січня 2021.
- Bostrom, Nick (2014). Superintelligence: Paths, Dangers, Strategies (вид. First). ISBN .
- Bostrom, Nick; (2011). (PDF). Cambridge Handbook of Artificial Intelligence. Cambridge Press. Архів оригіналу (PDF) за 4 березня 2016. Процитовано 28 червня 2011.
- Santos-Lang, Chris (2002). . Архів оригіналу за 3 грудня 2011.
- Santos-Lang, Christopher (2014). Moral Ecology Approaches to Machine Ethics. У van Rysewyk, Simon; Pontier, Matthijs (ред.). Machine Medical Ethics. Intelligent Systems, Control and Automation: Science and Engineering. Т. 74. Switzerland: Springer. с. 111—127. doi:10.1007/978-3-319-08108-3_8. ISBN .
- Evolving Robots Learn To Lie To Each Other [ 28 серпня 2009 у Wayback Machine.], Popular Science, August 18, 2009
- Evolving Robots Learn To Lie To Each Other, Popular Science, August 18, 2009
- Santos-Lang, Chris (2002). «Ethics for Artificial Intelligences». Archived from the original on 2011-12-03.
- Scientists Worry Machines May Outsmart Man [ 1 липня 2017 у Wayback Machine.] By JOHN MARKOFF, NY Times, July 26, 2009.
- Call for debate on killer robots [ 7 серпня 2009 у Wayback Machine.], By Jason Palmer, Science and technology reporter, BBC News, 8/3/09.
- Navy report warns of robot uprising, suggests a strong moral compass [ 4 червня 2011 у Wayback Machine.], by Joseph L. Flatley engadget.com, Feb 18th 2009.
- AAAI Presidential Panel on Long-Term AI Futures 2008—2009 Study [ 28 серпня 2009 у Wayback Machine.], Association for the Advancement of Artificial Intelligence, Accessed 7/26/09.
- Sotala, Kaj; Yampolskiy, Roman V (19 грудня 2014). Responses to catastrophic AGI risk: a survey. Physica Scripta. 90 (1): 8. doi:10.1088/0031-8949/90/1/018001. ISSN 0031-8949.
- Crawford, Kate (25 червня 2016). . The New York Times. Архів оригіналу за 14 січня 2021. Процитовано 19 січня 2021.
- Kirchner, Julia Angwin, Surya Mattu, Jeff Larson, Lauren (23 травня 2016). . ProPublica (англ.). Архів оригіналу за 17 листопада 2017. Процитовано 19 січня 2021.
- Executive Office of the President (May 2016). (PDF). Obama White House. Архів оригіналу (PDF) за 12 січня 2021. Процитовано 19 січня 2021.
- (англ.). Obama White House. 4 травня 2016. Архів оригіналу за 20 січня 2021. Процитовано 19 січня 2021.
- . World Economic Forum. Архів оригіналу за 23 січня 2021. Процитовано 11 грудня 2018.
- Fjeld, Jessica; Achten, Nele; Hilligoss, Hannah; Nagy, Adam; Srikumar, Madhulika (2020). Principled Artificial Intelligence: Mapping Consensus in Ethical and Rights-Based Approaches to Principles for AI. SSRN Working Paper Series. doi:10.2139/ssrn.3518482. ISSN 1556-5068.
- Jobin, Anna; Ienca, Marcello; Vayena, Effy (2019). The global landscape of AI ethics guidelines. Nature Machine Intelligence. 1 (9): 389—399. doi:10.1038/s42256-019-0088-2. ISSN 2522-5839.
- Anderson, Susan Leigh (2011): The Unacceptability of Asimov's Three Laws of Robotics as a Basis for Machine Ethics. In: Machine Ethics, ed. Michael Anderson, Susan Leigh Anderson. New York: Oxford University Press. pp.285–296.
- Powers, Thomas M. (2011): Prospects for a Kantian Machine [ 12 червня 2010 у Wayback Machine.]. In: Machine Ethics, ed. Michael Anderson, Susan Leigh Anderson. New York: Oxford University Press. pp.464–475.
- Muehlhauser, Luke, Helm, Louie (2012): Intelligence Explosion and Machine Ethics [ 16 лютого 2021 у Wayback Machine.].
- Yudkowsky, Eliezer (2004): Coherent Extrapolated Volition [ 25 січня 2021 у Wayback Machine.]
- Guarini, Marcello (2011): Computational Neural Modeling and the Philosophy of Ethics. Reflections on the Particularism-Generalism Debate [ 10 квітня 2022 у Wayback Machine.]. In: Machine Ethics, ed. Michael Anderson, Susan Leigh Anderson. New York: Oxford University Press. pp.316–334.
- Hibbard, Bill (2014): Ethical Artificial Intelligence. https://arxiv.org/abs/1411.1373 [ 8 січня 2021 у Wayback Machine.]
- . BBC News (брит.). Архів оригіналу за 17 квітня 2019. Процитовано 17 квітня 2016.
- Nazaretyan, A. (2014). A. H. Eden, J. H. Moor, J. H. Søraker and E. Steinhart (eds): Singularity Hypotheses: A Scientific and Philosophical Assessment. Minds & Machines, 24(2), pp.245–248.
- Brundage, Miles; Winterton, Jamie. . Slate. Архів оригіналу за 30 жовтня 2019. Процитовано 30 жовтня 2019.
- Asimov, Isaac (2008). I, robot. New York: Bantam. ISBN .
- Ganascia, Jean-Gabriel. «Ethical system formalization using non-monotonic logics [ 24 жовтня 2018 у Wayback Machine.].» Proceedings of the Annual Meeting of the Cognitive Science Society. Vol. 29. No. 29. 2007.
Посилання
- Машинна етика [ 25 січня 2021 у Wayback Machine.], Міждисциплінарний проект з машинної етики.
- Подкаст машинної етики [ 18 січня 2021 у Wayback Machine.], подкаст обговорення етики машин, штучного інтелекту та технічної етики.
Список літератури
- Валах, Вендел; Аллен, Колін (листопад 2008). Моральні машини: Навчання роботів прямо з помилки . США: Oxford University Press .
- Андерсон, Майкл; Андерсон, Сьюзен Лі, ред. (Липень 2011). Машинна етика . Кембриджська університетська преса .
- Сторрс Холл, Дж. (30 травня 2007 р.). Поза AI: Створення сумління книг про машинний прометей .
- Мур, Дж. (2006). Природа, важливість та складність етики машин. Інтелектуальні системи IEEE, 21 (4), с. 18–21.
- Андерсон, М. та Андерсон, С. (2007). Створення етичного інтелектуального агента. Журнал AI, том 28 (4).
- Хагендорф, Тіло (2020). " Етична поведінка у людей та машин — Оцінка якості навчальних даних для корисного машинного навчання [ 28 січня 2021 у Wayback Machine.] ". arXiv: 200811463.
- Андерсон, Майкл; Андерсон, Сьюзен Лі, ред. (Липень / серпень 2006 р.). " ". Інтелектуальні системи IEEE 21 (4): 10–63.
- Бендель, Олівер (11 грудня 2013 р.). Міркування про взаємозв'язок між твариною та машинною етикою . AI & SOCIETY, DOI:10.1007/s00146-013-0526-3 .
- Дабрінгер, Герхард, вид. (2010). " ". Міністерство оборони та спорту Австрії, Відень 2010, .
- Гарднер, А. (1987). Штучний підхід до правових міркувань . Кембридж, Массачусетс: MIT Press .
- Жорж, Т. М. (2003). Digital Soul: інтелектуальні машини та людські цінності . Кембридж, Массачусетс: Westview Press .
- Singer, PW (29 грудня 2009 р.). Wired for War: Революція робототехніки та конфлікти у 21 столітті : Пінгвін .
Вікіпедія, Українська, Україна, книга, книги, бібліотека, стаття, читати, завантажити, безкоштовно, безкоштовно завантажити, mp3, відео, mp4, 3gp, jpg, jpeg, gif, png, малюнок, музика, пісня, фільм, книга, гра, ігри, мобільний, телефон, android, ios, apple, мобільний телефон, samsung, iphone, xiomi, xiaomi, redmi, honor, oppo, nokia, sonya, mi, ПК, web, Інтернет
Mashinna etika abo mashinna moral obchislyuvalna moral abo obchislyuvalna etika ye chastinoyu etiki shtuchnogo intelektu yaka stosuyetsya nadannya moralnoyi povedinki mashinam sho vikoristovuyut shtuchnij intelekt inakshe vidomih yak intelektualni agenti Mashinna etika vidriznyayetsya vid inshih etichnih sfer pov yazanih z tehnikoyu ta tehnologiyami Mashinu etiku ne slid plutati z komp yuternoyu etikoyu sho oriyentovana na vikoristannya komp yutera lyudmi Yiyi takozh slid vidriznyati vid filosofiyi tehnologiyi yaka stosuyetsya znachnih socialnih naslidkiv tehnologiyi IstoriyaDo 21 stolittya mashinna etika v osnovnomu bula predmetom naukovo fantastichnoyi literaturi golovnim chinom cherez obmezheni mozhlivosti obchislyuvalnoyi tehniki ta shtuchnogo intelektu Hocha z tih pir viznachennya mashinnoyi etiki znachno evolyucionuvalo sam termin buv vvedenij Mitchellom Uoldropom u 1987 roci u statti zhurnalu AI Magazine yaka zvalasya Pitannya vidpovidalnosti Pozayak odne sho vidno z navedenogo vishe obgovorennya polyagaye v tomu sho intelektualni mashini budut vtilyuvati cinnosti ideyi ta cili nezalezhno vid togo planuyut yih programisti svidomo chi ni Takim chinom koli komp yuteri ta roboti stayut dedali bilsh intelektualnimi nadzvichajno vazhlivo shob mi retelno i chitko produmuvali yaki ci vbudovani cinnosti Mozhlivo nam i spravdi potribna teoriya i praktika mashinnoyi etiki v dusi troh zakoniv robototehniki A Azimova U knizi Na shlyahu do mashinnoyi etiki yaka bula predstavlena na seminari AAAI z pitan agentskih organizacij teoriya ta praktika u 2004 roci buli vikladeni teoretichni osnovi mashinnoyi etiki Pitannya pro vprovadzhennya etichnogo vimiru v avtonomnih sistemah rozglyanuli na simpoziumi AAAI z pitan mashinnoyi etiki voseni 2005 roku de doslidniki vpershe zibralis Riznomanitni perspektivi rozvitku cogo novogo terminu mozhna znajti u zibranomu vidanni Mashinna etika sho nadrukovane iz materialiv simpoziumu AAAI voseni 2005 roku z mashinnoyi etiki U 2007 r u zhurnali AI Magazine bula predstavlena stattya Mashinna etika stvorennya etichnogo intelektualnogo agenta v yakij obgovoryuvalosya znachennya mashinnoyi etiki ta neobhidnist v mashinah sho chitko predstavlyayut etichni principi ta problemi sho stoyat pered timi hto pracyuye nad mashinnoyu etikoyu Vona takozh prodemonstruvala sho mashina prinajmni v obmezhenij oblasti mozhe abstraguvati etichnij princip vid prikladiv etichnih sudzhen i vikoristovuvati cej princip dlya upravlinnya vlasnoyu povedinkoyu U 2009 r vidavnictvo Oksfordskogo universitetu opublikuvalo Moralni mashini Navchannya robotiv pryamo z pomilki yaku reklamuvali yak pershu knigu sho vivchaye problemu pobudovi shtuchnih moralnih agentiv gliboko doslidzhuyuchi prirodu prijnyattya rishen ta etiki lyudini Tut procitovano bilsh yak 450 dzherel blizko 100 z yakih stosuvalisya osnovnih pitan mashinnoyi etiki U 2011 r vidavnictvo Kembridzhskogo universitetu opublikuvalo zbirnik narisiv pro mashinu etiku pid redakciyeyu Majkla ta Syuzen Li Anderson yaki takozh vidredaguvali specialnij vipusk IEEE Intelligent Systems na cyu temu v 2006 r Zbirka skladayetsya z pitan pov yazanih z problemami dodavannya etichnih principiv mashinam U 2014 roci ogolosilo sho protyagom p yati rokiv rozpodilit 7 5 miljona dolariv grantiv universitetskim doslidnikam dlya vivchennya pitan mashinnoyi etiki avtonomnih robotiv Kniga Nika Bostroma v yakij vin rozglyanuv etiku mashin yak najvazhlivishu problemu z yakoyu koli nebud stikalosya lyudstvo dosyagla 17 miscya u spisku najbilsh prodavanih naukovih knig u pereliku Nyu Jork Tajms U 2016 roci Yevropejskij parlament opublikuvav dokument 22 storinkovij PDF shob zaohotiti Komisiyu zajnyatisya pitannyam pravovogo statusu robotiv Cej dokument vklyuchav rozdili sho stosuyutsya yuridichnih zobov yazan robotiv za yakimi vidpovidalnist vstanovlyuvalasya proporcijno rivnyu avtonomnosti robotiv Dokument takozh stavit pid sumniv kilkist robochih misc yaki mozhut buti zamineni robotami zi ShI Viznachennya odin z teoretikiv novatoriv u galuzi komp yuternoyi etiki viznachaye chotiri tipi etichnih robotiv Yak potuzhnij doslidnik vivchennya filosofiyi shtuchnogo intelektu filosofiyi rozumu filosofiyi nauki ta logiki Mur viznachaye mashini yak agenti etichnogo vplivu neyavni etichni agenti yavni etichni agenti abo povnistyu etichni agenti Mashina mozhe buti kilkoma agentami Etichni agenti vplivu ce mashinni sistemi yaki zdijsnyuyut abo ne zdijsnyuyut etichnij vpliv za priznachennyam U toj zhe chas ci agenti mozhut diyati neetichno Mur navodit gipotetichnij priklad yakij nazivayetsya agent Gudmana nazvanij na chest filosofa Agent Gudmana porivnyuye dati ale maye pomilku tisyacholittya Cya pomilka vinikla cherez programistiv yaki predstavlyali dati lishe z dvoma ostannimi ciframi roku Tozh bud yaki dati pislya 2000 roku budut vvazhatisya bilsh rannimi nizh ti sho buli naprikinci HH stolittya Takim chinom agent Gudmana buv etichnim agentom vplivu do 2000 roku a neetichnim agentom vplivu pislya cogo Neyavni etichni agenti Dlya rozglyadu lyudskoyi bezpeki ci agenti zaprogramovani buti vidmovostijkimi abo mayut vbudovanu dobrochesnist Voni mayut ne cilkom etichnij harakter a skorishe zaprogramovani na uniknennya neetichnih rezultativ Yavni etichni agenti ce mashini yaki zdatni obroblyati scenariyi ta diyati za etichnimi rishennyami Mashini yaki mayut algoritmi etichnoyi povedinki Povnocinni etichni agenti ci mashini podibni do yavnih etichnih agentiv oskilki voni mozhut prijmati etichni rishennya Odnak voni takozh mistyat metafizichni osoblivosti lyudini tobto mayut svobodu voli svidomist ta navmisnist Div en Osnovni napryamki mashinnoyi etikiProblema upravlinnya ShI Deyaki vcheni taki yak filosof Nik Bostrom ta doslidnik ShI stverdzhuyut sho yaksho ShI perevershit lyudstvo v zagalnomu intelekti i stane nadintelektualnim todi cej novij superintelekt mozhe stati nadto potuzhnim ta nekerovanim podibno do togo yak zalezhit dolya vid lyudskoyi dobrozichlivosti tak mozhlivo dolya lyudstva zalezhatime vid dij majbutnogo mashinnogo superintelektu U svoyih vidpovidnih knigah i obidva vcheni stverdzhuyut sho hocha isnuye velika neviznachenist shodo majbutnogo ShI rizik dlya lyudstva ye dosit visokim shob rozpochati diyati vzhe v danij chas Ce i predstavlyaye yak stvoriti intelektualnogo agenta yakij dopomozhe jogo tvorcyam unikayuchi razom z tim nenavmisnoyi pobudovi superintelektu sho matime zmogu zashkoditi jogo tvorcyam Nebezpeka nepravilnogo proektuvannya kontrolyu z pershogo razu polyagaye v tomu sho superintelekt zmozhe zahopiti vladu nad svoyim otochennyam i pereshkoditi lyudyam vimknuti jogo Mozhlivi strategiyi upravlinnya ShI vklyuchayut kontrol zdibnostej obmezhennya zdatnosti ShI vplivati na svit ta motivacijnij kontrol pobudova ShI cili yakogo uzgodzhuyutsya z lyudskimi cinnostyami Isnuye ryad organizacij yaki doslidzhuyut problemu upravlinnya ShI zokrema Institut majbutnogo lyudstva Institut doslidzhen mashinnogo intelektu Centr sumisnogo z lyudmi shtuchnogo intelektu ta Institut majbutnogo zhittya Algoritmi ta navchannya Obgovoryuvalis paradigmi ShI osoblivo shodo yih efektivnosti ta uperedzhenosti Nik Bostrom ta Eliezer Yudkovskij nadayut argumenti shodo derev uhvalennya rishen takih yak ID3 cherez nejronni merezhi ta genetichni algoritmi na tij pidstavi sho dereva rishen pidkoryayutsya suchasnim socialnim normam prozorosti ta peredbachuvanosti napriklad sudovij precedent Na protivagu comu Kris Santos Lang argumentuvav svoyu pidtrimku nejronnih merezh ta genetichnih algoritmiv na tij pidstavi sho normam bud yakogo viku neobhidno dozvoliti zminyuvatisya i sho prirodna nezdatnist povnistyu zadovolniti ci konkretni normi maye vazhlive znachennya dlya togo shob zrobiti lyudej mensh vrazlivimi nizh mashini do zlochinnih hakeriv U 2009 roci v eksperimenti v Laboratoriyi intelektualnih sistem v Politehnichnomu universiteti Ecole v Lozanni Shvejcariya robotam zi ShI bulo zaprogramovano spivpracyu mizh soboyu ta zavdannyam poshuku korisnogo resursu unikayuchi otrujnih resursiv Pid chas eksperimentu roboti buli zgrupovani v klani a cifrovij genetichnij kod uspishnih chleniv buv vikoristanij dlya nastupnogo pokolinnya tipu algoritmu vidomogo yak genetichnij algoritm Pislya 50 poslidovnih pokolin u ShI chleni odnogo klanu viyavili yak vidrizniti korisnij resurs vid otrujnogo Potim roboti navchilis brehati odin odnomu namagayuchis nakopichiti korisnij resurs na vidminu vid inshih robotiv U tomu zh eksperimenti ti sami roboti ShI takozh navchilis povoditisya bezkorislivo i signalizuvali pro nebezpeku dlya inshih robotiv a takozh ryatuvannyu inshih robotiv cinoyu vlasnoyi zagibeli Naslidki cogo eksperimentu buli oskarzheni doslidnikami mashinnimi etiki V eksperimenti Ecole Polytechnique Federale cili robotiv buli zaprogramovani na kincevi Na vidminu vid lyudskih motiviv yaki yak pravilo vimagayut neskinchennogo navchannya Avtonomni sistemi ozbroyennya U 2009 roci naukovci ta tehnichni eksperti vidvidali konferenciyu na yakij obgovorili potencijnij vpliv robotiv ta komp yuteriv ta vpliv gipotetichnoyi mozhlivosti togo sho voni mozhut stati samodostatnimi ta zdatnimi prijmati vlasni rishennya Voni obgovorili mozhlivist ta stupin v yakij komp yuteri ta roboti mozhut otrimati bud yakij riven avtonomnosti i naskilki voni mozhut vikoristovuvati taki zdibnosti shob predstavlyati bud yaku zagrozu chi nebezpeku dlya lyudstva Eksperti vidznachili sho deyaki mashini otrimali rizni formi napivavtonomiyi vklyuchayuchi mozhlivist samostijno znahoditi dzherela zhivlennya ta mozhlivist samostijno vibirati cili dlya zbrojnoyi ataki Takozh zaznachili sho deyaki komp yuterni virusi mozhut uhilitisya vid likvidaciyi ta dosyagli intelektu targaniv Ta zauvazhili sho samosvidomist yak u naukovij fantastici mabut malojmovirna ale isnuyut inshi potencijni nebezpeki ta pidvodni kameni Deyaki eksperti ta naukovci stavlyat pid sumniv vikoristannya robotiv dlya vijskovogo boyu osoblivo koli takim robotam nadayetsya pevna stupin avtonomnih funkcij Vijskovo morski sili SShA profinansuvali zvit yakij vkazuye sho v miru uskladnennya vijskovih robotiv slid pridilyati bilshe uvagi naslidkam yih zdatnosti prijmati samostijni rishennya Prezident Asociaciyi spriyannya rozvitku shtuchnogo intelektu doruchiv provesti doslidzhennya shob bilsh detalno rozglyanuti ce pitannya Voni vkazuyut na taki programi yak pristrij dlya vivchennya movi yakij mozhe imituvati lyudsku vzayemodiyu Integraciya shtuchnogo zagalnogo intelektu z suspilstvom Provedena poperednya robota nad metodami integraciyi shtuchnogo zagalnogo intelektu povnocinnih etichnih agentiv z isnuyuchimi pravovimi ta socialnimi normami Pidhodi buli zoseredzheni na vrahuvanni yih yuridichnogo stanovisha ta prav Uperedzhennya mashinnogo navchannya Masivi danih tak zvani Big data ta algoritmi mashinnogo navchannya stali populyarnimi sered bagatoh galuzej vklyuchayuchi Internet reklamu kreditni rejtingi ta navit kriminalni viroki z obicyankoyu zabezpechiti bilsh ob yektivni rezultati keruvannya danimi ale razom z tim viznacheni potencijnim dzherelom dlya prodovzhennya socialnoyi nerivnosti ta diskriminaciyi Doslidzhennya 2015 roku pokazalo sho zhinkam ridshe pokazuvatimut ogoloshennya pro robotu z visokim rivnem dohodu za dopomogoyu Google AdSense Inshe doslidzhennya pokazalo sho sluzhba dostavki Amazon togo zh dnya bula navmisno nedostupna v chornih kvartalah I Google i Amazon ne zmogli ob yednati ci vipadki v odne pitannya ale natomist poyasnili sho rezultati buli naslidkami algoritmiv chornogo yashika yaki voni vikoristovuvali Sudova sistema SShA pochala vikoristovuvati programne zabezpechennya kilkisnoyi ocinki riziku pid chas prijnyattya rishen pov yazanih iz zvilnennyam lyudej pid zastavu ta priznachennyam pokarannya namagayuchis buti bilsh spravedlivim ta zmenshiti i bez togo visokij riven uv yaznen Ci instrumenti analizuyut kriminalnu istoriyu obvinuvachenogo ta inshi oznaki U doslidzhenni 7000 osib zaareshtovanih u okruzi Brauard shtat Florida lishe 20 osib yakim prognozuvalosya vchinennya zlochinu vikoristovuyuchi sistemu ocinki riziku v okruzi vchinili jogo U zviti ProPublica za 2016 r bulo proanalizovano ocinki riziku recidivu rozrahovani za dopomogoyu odnogo z najbilsh chasto vikoristovuvanih instrumentiv sistemi ta rozglyanuto rezultati za dva roki Zvit viyaviv sho lishe 61 z tih kogo vvazhayut osobami z visokim rizikom zdijsnili dodatkovi zlochini protyagom vkazanogo periodu U zviti takozh zaznachayetsya sho afroamerikanskim pidsudnim nabagato chastishe vistavlyali ocinki visokogo riziku porivnyano z bilimi pidsudnimi U 2016 roci Robocha grupa administraciyi Obami naglyadach za riznimi regulyatornimi ramkami shodo Big data vipustila zviti v yakih argumentuyetsya potencial koduvannya diskriminaciyi v avtomatizovanih rishennyah i zaklikaye do rivnih mozhlivostej za proektom dlya takih dodatkiv yak kredit rejting Zviti zaohochuyut diskusiyi sered politikiv gromadyan ta naukovciv ale viznayut sho voni ne mayut potencijnogo rishennya dlya koduvannya uperedzhenosti ta diskriminaciyi v algoritmichni sistemiEtichni ramki ta praktikiU berezni 2018 roku namagayuchis virishiti zrostayuchi zanepokoyennya shodo vplivu mashinnogo navchannya na prava lyudini Svitovij ekonomichnij forum ta opublikuvali dovidku 23 sichnya 2021 u Wayback Machine z dokladnimi rekomendaciyami shodo togo yak najkrashe zapobigti diskriminacijnim rezultatam mashinnogo navchannya Svitovij ekonomichnij forum rozrobiv chotiri rekomendaciyi zasnovani na Kerivnih principah prav lyudini OON shob dopomogti virishiti ta zapobigti diskriminacijnim rezultatam mashinnogo navchannya Rekomendaciyi Svitovogo ekonomichnogo forumu taki Aktivna inklyuziya rozrobniki ta dizajneri dodatkiv dlya mashinnogo navchannya povinni aktivno shukati riznomanitni vhidni dani osoblivo normi ta cinnosti konkretnih grup naselennya na yaki vplivaye vihid sistem ShI Chesnist Lyudi yaki berut uchast u konceptualizaciyi rozrobci ta vprovadzhenni sistem mashinnogo navchannya povinni rozglyanuti yake viznachennya spravedlivosti najkrashe stosuyetsya yih kontekstu ta zastosuvannya i viznachiti jogo prioritetom v arhitekturi sistemi mashinnogo navchannya ta v pokaznikah yiyi ocinki Pravo na rozuminnya Zaluchennya sistem mashinnogo navchannya do procesu prijnyattya rishen sho stosuyetsya individualnih prav povinno rozkrivatisya a sistemi povinni mati mozhlivist nadavati poyasnennya shodo prijnyattya nimi rishen yaki ye zrozumilimi dlya kincevih koristuvachiv ta pereviryayutsya kompetentnim organom vladi Tam de ce nemozhlivo i stavlyatsya na kartu prava kerivniki u rozrobci vprovadzhenni ta regulyuvanni tehnologij mashinnogo navchannya povinni postaviti pid sumniv chi slid yih vikoristovuvati chi ni Dostup do kompensaciyi Kerivniki dizajneri ta rozrobniki sistem mashinnogo navchannya nesut vidpovidalnist za viyavlennya potencijnih negativnih naslidkiv yihnih prav na prava lyudini Voni povinni zrobiti osyazhnimi sposobi vidshkoduvannya dlya tih hto postrazhdav vid neodnakovih naslidkiv i vstanoviti procesi dlya svoyechasnogo vidshkoduvannya bud yakih diskriminacijnih rezultativ U sichni 2020 roku Garvardskogo universitetu opublikuvav meta doslidzhennya z 36 vidomih naboriv principiv dlya ShI viznachivshi visim klyuchovih tem privatnist pidzvitnist bezpeka ta ohorona prozorist ta poyasnyuvanist spravedlivist ta nediskriminaciya lyudskij kontrol nad tehnologiyami profesijna vidpovidalnist ta prosuvannya lyudskih cinnostej Podibne meta doslidzhennya bulo provedene doslidnikami Shvejcarskogo federalnogo tehnologichnogo institutu v Cyurihu v 2019 roci Pidhodi Bulo zrobleno kilka sprob zrobiti etiku obchislyuvanoyu abo prinajmni formalnoyu Todi yak Tri zakoni robototehniki Ajzeka Azimova yak pravilo ne vvazhayutsya pridatnimi dlya shtuchnogo moralnogo agenta bulo vivcheno chi mozhna vikoristovuvati kategorichnij imperativ Kanta Odnak bulo zaznacheno sho cinnist lyudini v deyakih aspektah duzhe skladna Yavnim shlyahom podolannya cogo uskladnennya ye otrimannya lyudskih cinnostej bezposeredno vid lyudej za dopomogoyu yakogos mehanizmu napriklad shlyahom yih vivchennya Inshij pidhid polyagaye v tomu shob potochni etichni mirkuvannya bazuvalisya na poperednih podibnih situaciyah Ce nazivayetsya kazuyistikoyu i vona mozhe buti realizovana shlyahom doslidzhen v Interneti Konsensus z miljona minulih rishen prizvede do novogo rishennya yake zalezhit vid demokratiyi Odnak razom z tim ce mozhe prizvesti do rishen sho vidobrazhayut uperedzhennya ta neetichnu povedinku yaki proyavlyayutsya u suspilstvi Negativni naslidki cogo pidhodu mozhna pobachiti v Microsoft de balakun navchivsya povtoryuvati rasistski ta seksualno zaryadzheni povidomlennya nadislani koristuvachami Twitter V odnomu z eksperimentiv sho proponuyetsya chitachu mislennya fokusuyetsya na Dzhini Golemi z neobmezhenimi mozhlivostyami Cej Dzhin zayavlyaye sho vin povernetsya cherez 50 rokiv i vimagaye shob vin otrimav pevnij nabir morali na osnovi yakogo vin potim diyatime Meta cogo eksperimentu rozpochati diskusiyu pro te yak najkrashe vporatis iz viznachennyam povnogo naboru etiki yaku mozhut zrozumiti komp yuteri U hudozhnij literaturiU naukovij fantastici filmi ta romani davno rozglyadali problemi isnuvannya rozumu v robotah ta mashinah U filmi Chappi 2015 Nila Blomkampa pokazano mozhlivij scenarij perenesennya svoyeyi svidomisti u komp yuter Film Ex Machina 2014 Aleksa Garlanda zobrazhuye androyida zi shtuchnim intelektom yakij projshov variaciyu testu Tyuringa testu yakij provodili na mashini shob pobachiti chi mozhna yiyi povedinku vidrizniti vid povedinki lyudini Taki roboti yak Terminator 1984 ta The Matrix 1999 vklyuchayut koncepciyu mashin sho vmikayut svoyih lyudskih gospodariv div Shtuchnij intelekt Ajzek Azimov rozglyadav cyu problemu v 1950 h rokah u zbirci naukovo fantastichnih opovidan Ya robot Za napolyagannyam svogo redaktora Dzhona Kempbella molodshogo vin zaproponuvav Tri zakoni robototehniki dlya upravlinnya shtuchnimi intelektualnimi sistemami Potim velika chastina jogo roboti bula provedena pereviryayuchi mezhi troh jogo zakoniv shob pobachiti de voni budut porusheni abo de voni stvoryat paradoksalnu abo neperedbachuvanu povedinku Jogo robota svidchit pro te sho zhoden nabir fiksovanih zakoniv ne mozhe v dostatnij miri peredbachiti vsi mozhlivi obstavini U romani Filipa K Dika Chi mriyut androyidi pro elektrichnih ovec 1968 vin doslidzhuye sho oznachaye buti lyudinoyu U svoyemu postapokaliptichnomu scenariyi vin sumnivavsya chi empatiya ye cilkom lyudskoyu harakteristikoyu Jogo istoriya stala osnovoyu dlya naukovo fantastichnogo filmu Toj hto bizhit po lezu 1982 Pov yazani ponyattyaBioetika Obchislyuvalna teoriya rozumu Komp yuterna etika Etika shtuchnogo intelektu Filosofiya shtuchnogo intelektu Filosofiya rozumuDiv takozhShtuchnij intelekt Druzhnij shtuchnij intelekt Vijskovij robot Institut doslidzhen mashinnogo intelektu Etika robotiv Proekt Vatsona z avtomatizaciyi medichnoyi pidtrimki prijnyattya rishenPrimitkiMoor J H 2006 The Nature Importance and Difficulty of Machine Ethics IEEE Intelligent Systems 21 4 18 21 doi 10 1109 MIS 2006 80 Boyles Robert James PDF Kritike Arhiv originalu PDF za 1 listopada 2019 Procitovano 1 listopada 2019 Waldrop Mitchell Spring 1987 A Question of Responsibility AI Magazine 8 1 28 39 doi 10 1609 aimag v8i1 572 Anderson M Anderson S and Armen C 2004 Towards Machine Ethics in Proceedings of the AAAI Workshop on Agent Organization Theory and Practice AAAI Press AAAI Workshop on Agent Organization Theory and Practice AAAI Press Arhiv originalu za 29 listopada 2014 Anderson Michael Anderson Susan Leigh red July 2011 Machine Ethics Cambridge University Press ISBN 978 0 521 11235 2 Anderson M and Anderson S 2007 Creating an Ethical Intelligent Agent 1 zhovtnya 2020 u Wayback Machine AI Magazine Volume 28 4 Wallach Wendell Allen Colin 2009 Moral machines teaching robots right from wrong Oxford University Press ISBN 9780195374049 Anderson Michael Anderson Susan Leigh red July August 2006 IEEE Intelligent Systems 21 4 10 63 doi 10 1109 mis 2006 70 ISSN 1541 1672 Arhiv originalu za 26 listopada 2011 Siler Cory 2015 Artificial Intelligence 229 200 201 doi 10 1016 j artint 2015 08 013 Arhiv originalu za 7 listopada 2019 Procitovano 7 listopada 2019 Tucker Patrick 13 travnya 2014 Defense One Arhiv originalu za 1 lipnya 2014 Procitovano 9 lipnya 2014 New York Times New York Times 8 veresnya 2014 Arhiv originalu za 25 serpnya 2018 Procitovano 9 listopada 2014 European Commission Arhiv originalu za 29 grudnya 2016 Procitovano 12 sichnya 2017 Wakefield Jane 12 sichnya 2017 BBC News Arhiv originalu za 12 sichnya 2017 Procitovano 12 sichnya 2017 European Parliament Arhiv originalu za 3 grudnya 2019 Procitovano 8 listopada 2019 Moor James M 2009 Philosophy Now Arhiv originalu za 26 lyutogo 2021 Procitovano 19 sichnya 2021 Bostrom Nick 2014 Superintelligence Paths Dangers Strategies vid First ISBN 978 0199678112 Bostrom Nick 2011 PDF Cambridge Handbook of Artificial Intelligence Cambridge Press Arhiv originalu PDF za 4 bereznya 2016 Procitovano 28 chervnya 2011 Santos Lang Chris 2002 Arhiv originalu za 3 grudnya 2011 Santos Lang Christopher 2014 Moral Ecology Approaches to Machine Ethics U van Rysewyk Simon Pontier Matthijs red Machine Medical Ethics Intelligent Systems Control and Automation Science and Engineering T 74 Switzerland Springer s 111 127 doi 10 1007 978 3 319 08108 3 8 ISBN 978 3 319 08107 6 Evolving Robots Learn To Lie To Each Other 28 serpnya 2009 u Wayback Machine Popular Science August 18 2009 Evolving Robots Learn To Lie To Each Other Popular Science August 18 2009 Santos Lang Chris 2002 Ethics for Artificial Intelligences Archived from the original on 2011 12 03 Scientists Worry Machines May Outsmart Man 1 lipnya 2017 u Wayback Machine By JOHN MARKOFF NY Times July 26 2009 Call for debate on killer robots 7 serpnya 2009 u Wayback Machine By Jason Palmer Science and technology reporter BBC News 8 3 09 Navy report warns of robot uprising suggests a strong moral compass 4 chervnya 2011 u Wayback Machine by Joseph L Flatley engadget com Feb 18th 2009 AAAI Presidential Panel on Long Term AI Futures 2008 2009 Study 28 serpnya 2009 u Wayback Machine Association for the Advancement of Artificial Intelligence Accessed 7 26 09 Sotala Kaj Yampolskiy Roman V 19 grudnya 2014 Responses to catastrophic AGI risk a survey Physica Scripta 90 1 8 doi 10 1088 0031 8949 90 1 018001 ISSN 0031 8949 Crawford Kate 25 chervnya 2016 The New York Times Arhiv originalu za 14 sichnya 2021 Procitovano 19 sichnya 2021 Kirchner Julia Angwin Surya Mattu Jeff Larson Lauren 23 travnya 2016 ProPublica angl Arhiv originalu za 17 listopada 2017 Procitovano 19 sichnya 2021 Executive Office of the President May 2016 PDF Obama White House Arhiv originalu PDF za 12 sichnya 2021 Procitovano 19 sichnya 2021 angl Obama White House 4 travnya 2016 Arhiv originalu za 20 sichnya 2021 Procitovano 19 sichnya 2021 World Economic Forum Arhiv originalu za 23 sichnya 2021 Procitovano 11 grudnya 2018 Fjeld Jessica Achten Nele Hilligoss Hannah Nagy Adam Srikumar Madhulika 2020 Principled Artificial Intelligence Mapping Consensus in Ethical and Rights Based Approaches to Principles for AI SSRN Working Paper Series doi 10 2139 ssrn 3518482 ISSN 1556 5068 Jobin Anna Ienca Marcello Vayena Effy 2019 The global landscape of AI ethics guidelines Nature Machine Intelligence 1 9 389 399 doi 10 1038 s42256 019 0088 2 ISSN 2522 5839 Anderson Susan Leigh 2011 The Unacceptability of Asimov s Three Laws of Robotics as a Basis for Machine Ethics In Machine Ethics ed Michael Anderson Susan Leigh Anderson New York Oxford University Press pp 285 296 ISBN 9780511978036 Powers Thomas M 2011 Prospects for a Kantian Machine 12 chervnya 2010 u Wayback Machine In Machine Ethics ed Michael Anderson Susan Leigh Anderson New York Oxford University Press pp 464 475 Muehlhauser Luke Helm Louie 2012 Intelligence Explosion and Machine Ethics 16 lyutogo 2021 u Wayback Machine Yudkowsky Eliezer 2004 Coherent Extrapolated Volition 25 sichnya 2021 u Wayback Machine Guarini Marcello 2011 Computational Neural Modeling and the Philosophy of Ethics Reflections on the Particularism Generalism Debate 10 kvitnya 2022 u Wayback Machine In Machine Ethics ed Michael Anderson Susan Leigh Anderson New York Oxford University Press pp 316 334 Hibbard Bill 2014 Ethical Artificial Intelligence https arxiv org abs 1411 1373 8 sichnya 2021 u Wayback Machine BBC News brit Arhiv originalu za 17 kvitnya 2019 Procitovano 17 kvitnya 2016 Nazaretyan A 2014 A H Eden J H Moor J H Soraker and E Steinhart eds Singularity Hypotheses A Scientific and Philosophical Assessment Minds amp Machines 24 2 pp 245 248 Brundage Miles Winterton Jamie Slate Arhiv originalu za 30 zhovtnya 2019 Procitovano 30 zhovtnya 2019 Asimov Isaac 2008 I robot New York Bantam ISBN 978 0 553 38256 3 Ganascia Jean Gabriel Ethical system formalization using non monotonic logics 24 zhovtnya 2018 u Wayback Machine Proceedings of the Annual Meeting of the Cognitive Science Society Vol 29 No 29 2007 PosilannyaMashinna etika 25 sichnya 2021 u Wayback Machine Mizhdisciplinarnij proekt z mashinnoyi etiki Podkast mashinnoyi etiki 18 sichnya 2021 u Wayback Machine podkast obgovorennya etiki mashin shtuchnogo intelektu ta tehnichnoyi etiki Spisok literaturiValah Vendel Allen Kolin listopad 2008 Moralni mashini Navchannya robotiv pryamo z pomilki SShA Oxford University Press Anderson Majkl Anderson Syuzen Li red Lipen 2011 Mashinna etika Kembridzhska universitetska presa Storrs Holl Dzh 30 travnya 2007 r Poza AI Stvorennya sumlinnya knig pro mashinnij prometej Mur Dzh 2006 Priroda vazhlivist ta skladnist etiki mashin Intelektualni sistemi IEEE 21 4 s 18 21 Anderson M ta Anderson S 2007 Stvorennya etichnogo intelektualnogo agenta Zhurnal AI tom 28 4 Hagendorf Tilo 2020 Etichna povedinka u lyudej ta mashin Ocinka yakosti navchalnih danih dlya korisnogo mashinnogo navchannya 28 sichnya 2021 u Wayback Machine arXiv 200811463 Anderson Majkl Anderson Syuzen Li red Lipen serpen 2006 r Intelektualni sistemi IEEE 21 4 10 63 Bendel Oliver 11 grudnya 2013 r Mirkuvannya pro vzayemozv yazok mizh tvarinoyu ta mashinnoyu etikoyu AI amp SOCIETY DOI 10 1007 s00146 013 0526 3 Dabringer Gerhard vid 2010 Ministerstvo oboroni ta sportu Avstriyi Viden 2010 ISBN 978 3 902761 04 0 Gardner A 1987 Shtuchnij pidhid do pravovih mirkuvan Kembridzh Massachusets MIT Press Zhorzh T M 2003 Digital Soul intelektualni mashini ta lyudski cinnosti Kembridzh Massachusets Westview Press Singer PW 29 grudnya 2009 r Wired for War Revolyuciya robototehniki ta konflikti u 21 stolitti Pingvin