Елізер Юдковський | |
---|---|
англ. Eliezer Shlomo Yudkowsky | |
Елізер Юдковський, Стенфорд, 2006 рік | |
Ім'я при народженні | англ. Eliezer Shlomo Yudkowsky |
Народився | 11 вересня 1979 (44 роки) США |
Країна | Американець |
Діяльність | дослідник штучного інтелекту, блогер, письменник, інформатик |
Галузь | , штучний інтелект |
Заклад | Singularity Institute for Artificial Intelligence |
Відомий завдяки: | Дружній штучний інтелект, фанфік про Гаррі Поттера |
Особ. сторінка | yudkowsky.net |
Елізер Юдковський у Вікісховищі |
Еліезер Шломо Юдковський / Юдковскі (англ. Eliezer Shlomo Yudkowsky; 11 вересня 1979) — американський блогер, письменник, футуролог, фахівець з штучного інтелекту, дослідник проблем технологічної сингулярності. Підтримує створення дружнього штучного інтелекту. Юдковський живе в Берклі, Каліфорнія.
Діяльність
Еліезер Юдковський відомий досягненнями в різних сферах.
Наука
Юдковський є автодидактом (самоуком). Він не має формальної освіти в галузі штучного інтелекту і не навчався у ВНЗ.
Співзасновник та науковий співробітник Інституту Сингулярності по створенню Штучного Інтелекту (SIAI) .
Автор публікацій на тему штучного інтелекту. Досліджує ті конструкції штучного інтелекту, які здатні до саморозуміння, самомодифікації й рекурсивного самовдосконалення, а також такі архітектури штучного інтелекту, які будуть володіти стабільною та позитивною структурою мотивації (Дружній штучний інтелект). До кола його наукових інтересів входить теорія прийняття рішень для задач самомодифікації та проблеми Newcomblike.
Крім дослідницької роботи відомий своїми науково-популярними поясненнями складних моделей мовою, доступною широкому колу читачів.
Блогерство
Разом з був одним один з провідних авторів блогу Overcoming Bias [ 26 січня 2012 у Wayback Machine.].
На початку 2009 року брав участь в організації блогу Less Wrong [ 16 березня 2014 у Wayback Machine.], націленого на «розвиток раціональності людини та подолання когнітивних спотворень». . Після цього Overcoming Bias став особистим блогом Хансона. Матеріал, представлений на цих блогах, організований у вигляді ланцюжків постів, які змогли залучити тисячі читачів — див. наприклад, ланцюжок «теорія розваг»[1] [ 4 липня 2014 у Wayback Machine.].
Less Wrong детально розглядався у Business Insider. На Less Wrong посилались зі шпальт The Guardian. Less Wrong фігурував у статтях, пов'язаних з технологічною сингулярістю та Інституту Сингулярності по створенню Штучного Інтелекту. Крім того, згадувався в статтях про інтернет-монархістів та нео-реакціонерів.
Фанфікшн
Написав кілька робіт з наукової фантастики, в яких він ілюструє деякі теми, пов'язані з когнітивною наукою та раціональністю. У неакадемічних колах здебільшого відомий як автор фанфіку про альтернативний розвиток подій у світі Гаррі Поттера "Гаррі Поттер і Методи Раціональності" (англ. Harry Potter and the Methods of Rationality). створений під ніком Less Wrong . Дана історія намагається пояснити магічний світ Гаррі Поттера з позиції наукової парадигми, послуговуючись досягненнями когнітивної науки та методів раціонального мислення).
Публікації
Оригінал
- (2001)
- (2002)
- (2004)
- (2008)
- (2008)
- Timeless Decision Theory [ 19 липня 2014 у Wayback Machine.] (2010)
- Complex Value Systems are Required to Realize Valuable Futures (2011)
- Tiling Agents for Self-Modifying AI, and the Löbian Obstacle [ 29 жовтня 2013 у Wayback Machine.] (2013)
- A Comparison of Decision Algorithms on Newcomblike Problems [ 7 травня 2015 у Wayback Machine.] (2013)
- An Intuitive Explanation of Bayes' Theorem [ 16 листопада 2013 у Wayback Machine.] (науково-популярна стаття).
Посилання
- Персональний сайт [ 8 грудня 2011 у Wayback Machine.]
- Less Wrong [ 16 березня 2014 у Wayback Machine.] — блог, присвячений розвитку мистецтва людської раціональності, співзасновником якого є Юдковський.
- Український переклад фанфіку "Гаррі Поттер і Методи раціональності" [ 16 лютого 2022 у Wayback Machine.]
- Сайт фанфіку "Гаррі Поттер та Методи раціонального мислення" [ 30 травня 2014 у Wayback Machine.]
- Predicting The Future: Eliezer Yudkowsky, NYTA Keynote Address — Feb 2003
- Глава про Юдковського в книзі «21st Century Technology and Its Radical Implications for Mind, Society and Reality» [ 5 червня 2014 у Wayback Machine.]
- Overcoming Bias [ 5 січня 2007 у Wayback Machine.] — Блог, дописувачем якого Юдковський був до 2009 року.
Див. також
Примітки
- . Архів оригіналу за 6 березня 2020.
- . Singularity Institute for Artificial Intelligence. Архів оригіналу за 27 червня 2009. Процитовано 16 липня 2009.
- Singularity Rising [ 9 липня 2014 у Wayback Machine.], by James Miller
- GDay World #238: Eliezer Yudkowsky. The Podcast Network. оригіналу за 17 липня 2007. Процитовано 26 липня 2009.
- Kurzweil, Ray (2005). The Singularity Is Near. New York, US: Viking Penguin. с. 599. ISBN .
- . Robin Hanson. Архів оригіналу за 26 січня 2012. Процитовано 1 лютого 2012.
- Miller, James (28 липня 2011). . Business Insider. Архів оригіналу за 10 серпня 2018. Процитовано 25 березня 2014.
- Burkeman, Oliver (8 липня 2011). . The Guardian. Архів оригіналу за 26 березня 2014. Процитовано 25 березня 2014.
- Burkeman, Oliver (9 березня 2012). . The Guardian. Архів оригіналу за 26 березня 2014. Процитовано 25 березня 2014.
- Tiku, Natasha (25 липня 2012). . . Архів оригіналу за 12 березня 2014. Процитовано 25 березня 2014.
- Finley, Klint (22 листопада 2013). . TechCrunch. Архів оригіналу за 26 березня 2014. Процитовано 25 березня 2014.
- . Архів оригіналу за 8 вересня 2015. Процитовано 1 червня 2014.
{{}}
: Обслуговування CS1: Сторінки з текстом «archived copy» як значення параметру title () - . Архів оригіналу за 12 травня 2014. Процитовано 1 червня 2014.
{{}}
: Обслуговування CS1: Сторінки з текстом «archived copy» як значення параметру title () - . Архів оригіналу за 23 червня 2013. Процитовано 1 червня 2014.
- перекл. "Створення дружнього штучного інтелекту"
- перекл. "Рівні організації універсального інтелекту"
- перекл. «Когерентна екстрапольована воля»
- перекл. "Штучний інтелект як позитивний та негативний чинник глобального ризику"
- (PDF). Singularity Institute for Artificial Intelligence. Архів оригіналу (PDF) за 6 серпня 2009. Процитовано 28 липня 2009.
- Bostrom, Nick, ред. (2008). Global Catastrophic Risks. Oxford, UK: Oxford University Press. с. 91-119, 308—345. ISBN .
- перекл. "Когнітивні спотворення в оцінці глобальних ризиків"
- (PDF). Singularity Institute for Artificial Intelligence. Архів оригіналу (PDF) за 13 червня 2012. Процитовано 1 червня 2014.
- перекл. "Позачасова теорія прийняття рішень"
- Eliezer Yudkowsky Profile. Accelerating Future. Архів оригіналу за 4 липня 2012. Процитовано 1 червня 2014.
- перекл. "Інтуїтивне пояснення теореми Байеса"
Вікіпедія, Українська, Україна, книга, книги, бібліотека, стаття, читати, завантажити, безкоштовно, безкоштовно завантажити, mp3, відео, mp4, 3gp, jpg, jpeg, gif, png, малюнок, музика, пісня, фільм, книга, гра, ігри, мобільний, телефон, android, ios, apple, мобільний телефон, samsung, iphone, xiomi, xiaomi, redmi, honor, oppo, nokia, sonya, mi, ПК, web, Інтернет
Batko Posada Diti Druzhina Mati Cholovik Elizer Yudkovskijangl Eliezer Shlomo YudkowskyElizer Yudkovskij Stenford 2006 rik Elizer Yudkovskij Stenford 2006 rikIm ya pri narodzhenniangl Eliezer Shlomo YudkowskyNarodivsya11 veresnya 1979 1979 09 11 44 roki SShAKrayinaAmerikanecDiyalnistdoslidnik shtuchnogo intelektu bloger pismennik informatikGaluz shtuchnij intelektZakladSingularity Institute for Artificial IntelligenceVidomij zavdyaki Druzhnij shtuchnij intelekt fanfik pro Garri PotteraOsob storinkayudkowsky net Elizer Yudkovskij u Vikishovishi Eliezer Shlomo Yudkovskij Yudkovski angl Eliezer Shlomo Yudkowsky 11 veresnya 1979 amerikanskij bloger pismennik futurolog fahivec z shtuchnogo intelektu doslidnik problem tehnologichnoyi singulyarnosti Pidtrimuye stvorennya druzhnogo shtuchnogo intelektu Yudkovskij zhive v Berkli Kaliforniya DiyalnistEliezer Yudkovskij vidomij dosyagnennyami v riznih sferah Nauka Yudkovskij ye avtodidaktom samoukom Vin ne maye formalnoyi osviti v galuzi shtuchnogo intelektu i ne navchavsya u VNZ Spivzasnovnik ta naukovij spivrobitnik Institutu Singulyarnosti po stvorennyu Shtuchnogo Intelektu SIAI Avtor publikacij na temu shtuchnogo intelektu Doslidzhuye ti konstrukciyi shtuchnogo intelektu yaki zdatni do samorozuminnya samomodifikaciyi j rekursivnogo samovdoskonalennya a takozh taki arhitekturi shtuchnogo intelektu yaki budut voloditi stabilnoyu ta pozitivnoyu strukturoyu motivaciyi Druzhnij shtuchnij intelekt 420 Do kola jogo naukovih interesiv vhodit teoriya prijnyattya rishen dlya zadach samomodifikaciyi ta problemi Newcomblike Krim doslidnickoyi roboti vidomij svoyimi naukovo populyarnimi poyasnennyami skladnih modelej movoyu dostupnoyu shirokomu kolu chitachiv Blogerstvo Razom z buv odnim odin z providnih avtoriv blogu Overcoming Bias 26 sichnya 2012 u Wayback Machine Na pochatku 2009 roku brav uchast v organizaciyi blogu Less Wrong 16 bereznya 2014 u Wayback Machine nacilenogo na rozvitok racionalnosti lyudini ta podolannya kognitivnih spotvoren 37 Pislya cogo Overcoming Bias stav osobistim blogom Hansona Material predstavlenij na cih blogah organizovanij u viglyadi lancyuzhkiv postiv yaki zmogli zaluchiti tisyachi chitachiv div napriklad lancyuzhok teoriya rozvag 1 4 lipnya 2014 u Wayback Machine Less Wrong detalno rozglyadavsya u Business Insider Na Less Wrongposilalis zi shpalt The Guardian Less Wrong figuruvav u stattyah pov yazanih z tehnologichnoyu singulyaristyu ta Institutu Singulyarnosti po stvorennyu Shtuchnogo Intelektu Krim togo zgaduvavsya v stattyah pro internet monarhistiv ta neo reakcioneriv Fanfikshn Napisav kilka robit z naukovoyi fantastiki v yakih vin ilyustruye deyaki temi pov yazani z kognitivnoyu naukoyu ta racionalnistyu U neakademichnih kolah zdebilshogo vidomij yak avtor fanfiku pro alternativnij rozvitok podij u sviti Garri Pottera Garri Potter i Metodi Racionalnosti angl Harry Potter and the Methods of Rationality stvorenij pid nikom Less Wrong Dana istoriya namagayetsya poyasniti magichnij svit Garri Pottera z poziciyi naukovoyi paradigmi poslugovuyuchis dosyagnennyami kognitivnoyi nauki ta metodiv racionalnogo mislennya PublikaciyiOriginal 2001 2002 2004 2008 2008 Timeless Decision Theory 19 lipnya 2014 u Wayback Machine 2010 Complex Value Systems are Required to Realize Valuable Futures 2011 Tiling Agents for Self Modifying AI and the Lobian Obstacle 29 zhovtnya 2013 u Wayback Machine 2013 A Comparison of Decision Algorithms on Newcomblike Problems 7 travnya 2015 u Wayback Machine 2013 An Intuitive Explanation of Bayes Theorem 16 listopada 2013 u Wayback Machine naukovo populyarna stattya PosilannyaPersonalnij sajt 8 grudnya 2011 u Wayback Machine Less Wrong 16 bereznya 2014 u Wayback Machine blog prisvyachenij rozvitku mistectva lyudskoyi racionalnosti spivzasnovnikom yakogo ye Yudkovskij Ukrayinskij pereklad fanfiku Garri Potter i Metodi racionalnosti 16 lyutogo 2022 u Wayback Machine Sajt fanfiku Garri Potter ta Metodi racionalnogo mislennya 30 travnya 2014 u Wayback Machine Predicting The Future Eliezer Yudkowsky NYTA Keynote Address Feb 2003 Glava pro Yudkovskogo v knizi 21st Century Technology and Its Radical Implications for Mind Society and Reality 5 chervnya 2014 u Wayback Machine Overcoming Bias 5 sichnya 2007 u Wayback Machine Blog dopisuvachem yakogo Yudkovskij buv do 2009 roku Div takozhEtika shtuchnogo intelektuPrimitki Arhiv originalu za 6 bereznya 2020 Singularity Institute for Artificial Intelligence Arhiv originalu za 27 chervnya 2009 Procitovano 16 lipnya 2009 Singularity Rising 9 lipnya 2014 u Wayback Machine by James Miller GDay World 238 Eliezer Yudkowsky The Podcast Network originalu za 17 lipnya 2007 Procitovano 26 lipnya 2009 Kurzweil Ray 2005 The Singularity Is Near New York US Viking Penguin s 599 ISBN 0 670 03384 7 Robin Hanson Arhiv originalu za 26 sichnya 2012 Procitovano 1 lyutogo 2012 Miller James 28 lipnya 2011 Business Insider Arhiv originalu za 10 serpnya 2018 Procitovano 25 bereznya 2014 Burkeman Oliver 8 lipnya 2011 The Guardian Arhiv originalu za 26 bereznya 2014 Procitovano 25 bereznya 2014 Burkeman Oliver 9 bereznya 2012 The Guardian Arhiv originalu za 26 bereznya 2014 Procitovano 25 bereznya 2014 Tiku Natasha 25 lipnya 2012 Arhiv originalu za 12 bereznya 2014 Procitovano 25 bereznya 2014 Finley Klint 22 listopada 2013 TechCrunch Arhiv originalu za 26 bereznya 2014 Procitovano 25 bereznya 2014 Arhiv originalu za 8 veresnya 2015 Procitovano 1 chervnya 2014 a href wiki D0 A8 D0 B0 D0 B1 D0 BB D0 BE D0 BD Cite web title Shablon Cite web cite web a Obslugovuvannya CS1 Storinki z tekstom archived copy yak znachennya parametru title posilannya Arhiv originalu za 12 travnya 2014 Procitovano 1 chervnya 2014 a href wiki D0 A8 D0 B0 D0 B1 D0 BB D0 BE D0 BD Cite web title Shablon Cite web cite web a Obslugovuvannya CS1 Storinki z tekstom archived copy yak znachennya parametru title posilannya Arhiv originalu za 23 chervnya 2013 Procitovano 1 chervnya 2014 perekl Stvorennya druzhnogo shtuchnogo intelektu perekl Rivni organizaciyi universalnogo intelektu perekl Kogerentna ekstrapolovana volya perekl Shtuchnij intelekt yak pozitivnij ta negativnij chinnik globalnogo riziku PDF Singularity Institute for Artificial Intelligence Arhiv originalu PDF za 6 serpnya 2009 Procitovano 28 lipnya 2009 Bostrom Nick red 2008 Global Catastrophic Risks Oxford UK Oxford University Press s 91 119 308 345 ISBN 978 0 19 857050 9 perekl Kognitivni spotvorennya v ocinci globalnih rizikiv PDF Singularity Institute for Artificial Intelligence Arhiv originalu PDF za 13 chervnya 2012 Procitovano 1 chervnya 2014 perekl Pozachasova teoriya prijnyattya rishen Eliezer Yudkowsky Profile Accelerating Future Arhiv originalu za 4 lipnya 2012 Procitovano 1 chervnya 2014 perekl Intuyitivne poyasnennya teoremi Bajesa