Частина інформації в цій статті застаріла. (липень 2023) |
Ця сторінка — хронологія розвитку машинного навчання. До неї включено основні відкриття, досягнення, віхи та інші важливі події у машинному навчанні.
Огляд
Десятиріччя | Підсумки |
---|---|
до 1950-х | Відкрито та вдосконалено статистичні методи. |
1950-ті | Проводять піонерські дослідження машинного навчання з використанням простих алгоритмів. |
1960-ті | Запропоновано баєсові методи для ймовірнісного висновування в машинному навчанні. |
1970-ті | Песимізм щодо ефективності машинного навчання спричинив «зиму ШІ». |
1980-ті | Повторне відкриття зворотного поширення викликає пожвавлення досліджень машинного навчання. |
1990-ті | Робота над машинним навчанням переходить від підходу, керованого знаннями, до підходу, керованого даними. Науковці починають створювати програми для комп'ютерів, щоб аналізувати великі обсяги даних і робити висновки — або «навчатися» — з результатів. Набувають популярності опорновекторні машини (ОВМ, англ. SVM) та рекурентні нейронні мережі (РНМ, англ. RNN). Започатковано галузі обчислювальної складності через нейронні мережі та надтюрінгові обчислення. |
2000-ті | Набувають широкого поширення опорновекторне кластерування та інші ядрові методи, а також методи машинного некерованого навчання. |
2010-ті | Стає здійсненним глибоке навчання, що призводить до того, що машинне навчання стає невід'ємною частиною багатьох широко використовуваних програмних служб і застосунків. Глибоке навчання стимулює величезний поступ у баченні та обробці тексту. |
2020-ті | Породжувальний ШІ призводить до революційних моделей, створюючи розмаїття [en], як власницьких, так і відкритих, зокрема, уможливлюючи такі продукти як ChatGPT (на основі тексту) та Stable Diffusion (на основі зображень). Машинне навчання та ШІ входять у широку громадську свідомість. Комерційний потенціал ШІ на основі машинного навчання призводить до значного зростання оцінок вартості компаній, пов'язаних з ШІ. |
Хронологія
Рік | Тип події | Заголовок | Подія |
---|---|---|---|
1763 | Відкриття | Підвалини теореми Баєса | Працю Томаса Баєса [en]» опубліковано через два роки після його смерті, виправлену та відредаговану другом Баєса, [en]. Це есе подає працю, яка лягла в основу теорами Баєса. |
1805 | Відкриття | Найменші квадрати | Адрієн-Марі Лежандр описує «méthode des moindres carrés», відомий українською як метод найменших квадратів. Його широко використовують у [en]. |
1812 | Теорема Баєса | П'єр-Симон Лаплас публікує «Théorie Analytique des Probabilités», у якій розширює працю Баєса та визначає те, що відоме тепер як теорема Баєса. | |
1913 | Відкриття | Марковські ланцюги | Андрій Марков уперше описує методики, які він використовував для аналізу віршів. Ці методики пізніше стали відомими як марковські ланцюги. |
1943 | Відкриття | Штучний нейрон | Воррен Маккалох та [en] розробляють математичну модель, що імітує функціювання біологічного нейрона, штучний нейрон, яку вважають першою винайденою нейронною моделлю. |
1950 | Тюрінгова самонавчальна машина | Алан Тюрінг пропонує «самонавчальну машину», що може навчатися та стати штучним інтелектом. Конкретна пропозиція Тюрінга провіщує генетичні алгоритми. | |
1951 | Перша нейромережна машина | Марвін Мінскі та Дін Едмондс створюють першу здатну навчатися нейромережну машину, [en]. | |
1952 | Машини, що грають у шашки | Артур Семюель приєднується до лабораторії Poughkeepsie в IBM і починає працювати над деякими з найперших програмам машинного навчання, першими створюючи програми, які грають у шашки. | |
1957 | Відкриття | Перцептрон | Френк Розенблат, працюючи в [en], винаходить перцептрон. Винайдення перцептрона викликає великий ажіотаж, його широко висвітлюють у засобах масової інформації. |
1963 | Досягнення | Машини, що грають у хрестики-нулики | [en] створює «машину», складену з 304 сірникових коробок та намистин, що використовує навчання з підкріпленням грі в хрестики-нулики. |
1967 | Найближчий сусід | Було створено алгоритм найближчого сусіда, що є початком базового розпізнавання образів. Цей алгоритм використовували для прокладання маршрутів. | |
1969 | Обмеження нейронних мереж | Марвін Мінскі та Сеймур Пейперт публікують свою книгу [en]», що описує деякі з обмежень перцептронів та нейронних мереж. Інтерпретацію, яку показує книга, що нейронні мережі фундаментально обмежені, розглядають як перепону для досліджень нейронних мереж. | |
1970 | Автоматичне диференціювання (зворотне поширення) | [en] публікує загальний метод автоматичного диференціювання (АД, англ. AD) дискретних зв'язних мереж вкладених диференційовних функцій. Це відповідає сучасній версії зворотного поширення, але ще не має цієї назви. | |
1979 | Стенфордський візок | Студенти у Стенфордському університеті розроблюють візок, що може пересуватися й уникати перешкод у кімнаті. | |
1979 | Відкриття | Неокогнітрон | [en] вперше публікує свою працю про неокогнітрон, один із типів штучних нейронних мереж (ШНМ, англ. ANN). Неокогнітивність пізніше надихає згорткові нейронні мережі (ЗНМ, англ. CNN). |
1981 | Навчання на основі пояснень | Джеральд Деджонг пропонує навчання на основі пояснень (англ. Explanation Based Learning), в якому комп'ютерний алгоритм аналізує дані та створює загальне правило, якому він може слідувати, та відкидати неважливі дані. | |
1982 | Відкриття | Рекурентна нейронна мережа | Джон Гопфілд популяризує мережі Гопфілда, один із типів рекуретних нейронних мереж, що можуть слугувати системами пам'яті з адресуванням вмістом. |
1985 | [en] | [en] розробив програму, яка навчається вимовляти слова англійської мови так само, як це робить дитина. | |
1986 | Застосування | Зворотне поширення | Зворотний режим автоматичного диференціювання [en] (вперше застосований до нейронних мереж [en]) використано в експериментах [en], Джефа Гінтона та [en] для навчання внутрішніх подань. |
1988 | Теорема про універсальне наближення (теорема Цибенка) | [de] доводить, що стандартні багатошарові мережі прямого поширення здатні наближувати будь-яку борелево вимірну функцію з одного скінченновимірного простору до іншого до будь-якого ступеню точності, за умови наявності достатньої кількості прихованих вузлів. | |
1989 | Відкриття | Навчання з підкріпленням | Крістофер Воткінс розробляє Q-навчання, яке значно покращує практичність та здійсненність навчання з підкріпленням. |
1989 | Комерціалізація | Комерціалізація машинного навчання на персональних комп'ютерах | Axcelis, Inc. випускає [en], перший програмний пакет для комерціалізації використання генетичних алгоритмів на персональних комп'ютерах. |
1992 | Досягнення | Машини, які грають у короткі нарди | Джеральд Тезауро розрозбяє ЧР-нарди (англ. TD-Gammon), комп'ютерну програму для гри в короткі нарди, яка використовує штучну нейронну мережу, натреновану з використанням методу часових різниць (звідси «ЧР» у назві). ЧР-нарди здатні конкурувати, але не завжди перевершувати здібності найкращих серед людей гравців у короткі нарди. |
1995 | Відкриття | Алгоритм випадкового лісу | Тін Кам Хо публікує працю, що описує випадкові ліси рішень. |
1995 | Відкриття | Опорновекторні машини | Корінна Кортес та Володимир Вапник публікують свою працю про опорновекторні машини. |
1997 | Досягнення | IBM Deep Blue перемагає Каспарова | Deep Blue від IBM перемагає чемпіона світу з шахів. |
1997 | Відкриття | ДКЧП (англ. LSTM) | [en] та Юрген Шмідхубер винаходять рекурентні нейронні мережі з довгою короткочасною пам'яттю (ДКЧП), що значно покращує ефективність та практичність рекурентних нейронних мереж. |
1998 | База даних MNIST | Команда під проводом Яна ЛеКуна випускає базу даних MNIST, набір даних, що складається з суміші рукописних цифр від працівників Бюро перепису населення та старшокласників США. База даних MNIST відтоді стала еталоном для оцінювання розпізнавання рукописного тексту. | |
2002 | Бібліотека машинного навчання Torch | Перший випуск Torch, бібліотеки програмного забезпечення машинного навчання. | |
2006 | Netflix Prize | Netflix запускає змагання [en]. Мета змагання — за допомогою машинного навчання перевершити точність власного програмного забезпечення рекомендацій Netflix у передбачуванні оцінки фільму користувачем за наявних оцінок цим користувачем попередніх фільмів щонайменше на 10 %. Цю премію було виграно 2009 року. | |
2009 | Досягнення | ImageNet | Створено [en]. Це велика база даних зображень, створена Фей-Фей Лі зі Стенфордського університету, яка усвідомила, що найкращі алгоритми машинного навчання не працюватимуть добре, якщо дані не відображатимуть реального світу. Для багатьох ImageNet стала каталізатором буму ШІ XXI сторіччя. |
2010 | Змагання Kaggle | Запущено Kaggle, вебсайт, що слугує платформою для змагань з машинного навчання. | |
2011 | Досягнення | Перемога над людьми в Jeopardy | Використовуючи поєднання машинного навчання, обробки природної мови та методик інформаційного пошуку, Watson від IBM перемагає двох чемпіонів серед людей у змаганні [en]. |
2012 | Досягнення | Розпізнавання котів на YouTube | Команда Google Brain під проводом Ендрю Ина та Джеффа Діна створює нейронну мережу, яка навчається розпізнавати котів, переглядаючи немічені зображення, взяті з кадрів відео YouTube. |
2012 | Відкриття | Візуальне розпізнавання | Стаття та алгоритм AlexNet досягли проривних результатів у розпізнаванні зображень на еталоні ImageNet. Це сприяло популяризації глибоких нейронних мереж. |
2013 | Відкриття | Вкладання слів | Широко цитована стаття, що отримала прізвисько word2vec, революціонізувала обробку тексту в машинному навчанні. Вона показала, як кожне слово можливо перетворити на послідовність чисел (вкладення слів), використання цих векторів революціонізувало обробку тексту в машинному навчанні. |
2014 | Стрибок у розпізнаванні облич | Дослідники з Facebook публікують свою працю щодо [en], системи, яка використовує нейронні мережі й ідентифікує обличчя з точністю 97,35 %. Ці результати є покращенням на понад 27 % відносно попередніх систем, і складають конкуренцію людській продуктивності. | |
2014 | Sibyl | Дослідники з Google розкрили деталі своєї праці над Sibyl, власною платформою для масово паралельного машинного навчання, яку Google використовує всередині для передбачування поведінки користувачів та надавання рекомендацій. | |
2016 | Досягнення | Перемога над людьми в ґо | Програма AlphaGo від Google стає першою програмою комп'ютерного ґо, яка перемогла фахового людського гравця без обмежень, використовуючи поєднання методик машинного навчання та пошуку деревами. Пізніше вдосконалена як [en], а 2017 року узагальнена на шахи та додаткові ігри для двох гравців як AlphaZero. |
2017 | Відкриття | Трансформер | Команда Google Brain винайшла архітектуру трансформера, що уможливила швидше паралельне тренування нейронних мереж на послідовних даних, таких як текст. |
2018 | Досягнення | Передбачування структури білків | У грудні 2018 року AlphaFold 1 (2018) посіла перше місце в загальному рейтингу 13-го Критичного аналізу методів для структурних передбачень білків (КАСП). |
2021 | Досягнення | Передбачування структури білків | AlphaFold 2 (2021), команда, яка використовувала AlphaFold 2 (2020), підтвердила це місце на змаганнях КАСП у листопаді 2020 року. Ця команда досягла набагато вищого рівня точності, ніж будь-яка інша група. Вона набрала понад 90 балів для приблизно двох третин з білків у випробуванні КАСП на глобальну відстань (англ. GDT), випробуванні, яка вимірює ступінь подібності передбаченої обчислювальною програмою структури до експериментально встановленої в лабораторії, де 100 це повний збіг, у межах граничної відстані, яку використовують для обчислення GDT. |
Див. також
- Історія штучного інтелекту
- [en]
- [en]
Примітки
Цитування
- Solomonoff, R.J. (June 1964). A formal theory of inductive inference. Part II. Information and Control (англ.). 7 (2): 224—254. doi:10.1016/S0019-9958(64)90131-7.
- Marr, 2016.
- Siegelmann, H.T.; Sontag, E.D. (February 1995). On the Computational Power of Neural Nets. Journal of Computer and System Sciences (англ.). 50 (1): 132—150. doi:10.1006/jcss.1995.1013.
- Siegelmann, Hava (1995). Computation Beyond the Turing Limit. Journal of Computer and System Sciences (англ.). 238 (28): 632—637. Bibcode:1995Sci...268..545S. doi:10.1126/science.268.5210.545. PMID 17756722. S2CID 17495161.
- Ben-Hur, Asa; Horn, David; Siegelmann, Hava; Vapnik, Vladimir (2001). Support vector clustering. Journal of Machine Learning Research (англ.). 2: 51—86.
- Hofmann, Thomas; Schölkopf, Bernhard; Smola, Alexander J. (2008). Kernel methods in machine learning. The Annals of Statistics (англ.). 36 (3): 1171—1220. arXiv:math/0701907. doi:10.1214/009053607000000677. JSTOR 25464664.
- Bennett, James; Lanning, Stan (2007). The netflix prize (PDF). Proceedings of KDD Cup and Workshop 2007 (англ.).
- Bayes, Thomas (1 січня 1763). An Essay towards solving a Problem in the Doctrine of Chance. Philosophical Transactions (англ.). 53: 370—418. doi:10.1098/rstl.1763.0053. JSTOR 105741.
- Legendre, Adrien-Marie (1805). Nouvelles méthodes pour la détermination des orbites des comètes (фр.). Paris: Firmin Didot. с. viii. Процитовано 13 червня 2016.
- O'Connor, J J; Robertson, E F. Pierre-Simon Laplace (англ.). School of Mathematics and Statistics, University of St Andrews, Scotland. Процитовано 15 червня 2016.
- Langston, Nancy (2013). Mining the Boreal North. American Scientist (англ.). 101 (2): 1. doi:10.1511/2013.101.1.
Заглиблюючись у текст роману в віршах Олександра Пушкіна «Євгеній Онєгін», Марков годинами перебирав схеми голосних та приголосних. 23 січня 1913 року він узагальнив свої висновки у зверненні до Імператорської академії наук у Санкт-Петербурзі. Його аналіз не змінив розуміння чи оцінок роману Пушкіна, але методика, яку він розробив, відома тепер як марковський ланцюг, розширила теорію ймовірностей у новому напрямку.
- McCulloch, Warren S.; Pitts, Walter (December 1943). A logical calculus of the ideas immanent in nervous activity. The Bulletin of Mathematical Biophysics (англ.). 5 (4): 115—133. doi:10.1007/BF02478259.
- Turing, A. M. (1 жовтня 1950). I.—COMPUTING MACHINERY AND INTELLIGENCE. Mind (англ.). LIX (236): 433—460. doi:10.1093/mind/LIX.236.433.
- Crevier, 1993, с. 34—35 та Russell та Norvig, 2003, с. 17.
- McCarthy, J.; Feigenbaum, E. (1 вересня 1990). In memoriam—Arthur Samuel (1901–1990). AI Magazine (англ.). 11 (3): 10—11.
- Rosenblatt, F. (1958). The perceptron: A probabilistic model for information storage and organization in the brain. Psychological Review (англ.). 65 (6): 386—408. CiteSeerX 10.1.1.588.3775. doi:10.1037/h0042519. PMID 13602029. S2CID 12781225.
- Mason, Harding; Stewart, D; Gill, Brendan (6 грудня 1958). Rival. The New Yorker (англ.). Процитовано 5 червня 2016.
- Child, Oliver (13 березня 2016). Menace: the Machine Educable Noughts And Crosses Engine Read. Chalkdust Magazine (англ.). Процитовано 16 січня 2018.
- Cohen, Harvey. The Perceptron (англ.). Процитовано 5 червня 2016.
- (1970). Algoritmin kumulatiivinen pyoristysvirhe yksittaisten pyoristysvirheiden taylor-kehitelmana [The representation of the cumulative rounding error of an algorithm as a Taylor expansion of the local rounding errors] (PDF) (Дипломна робота) (фін.). с. 6—7.
- (1976). Taylor expansion of the accumulated rounding error. BIT Numerical Mathematics (англ.). 16 (2): 146—160. doi:10.1007/BF01931367. S2CID 122357351.
- Griewank, Andreas (2012). Who Invented the Reverse Mode of Differentiation?. Documenta Matematica, Extra Volume ISMP (англ.): 389—400.
- Griewank, Andreas; Walther, A. (2008). Principles and Techniques of Algorithmic Differentiation (англ.) (вид. Second). SIAM. ISBN .
- Schmidhuber, Jürgen (2015). Deep learning in neural networks: An overview. Neural Networks (англ.). 61: 85—117. arXiv:1404.7828. Bibcode:2014arXiv1404.7828S. doi:10.1016/j.neunet.2014.09.003. PMID 25462637. S2CID 11715509.
- Schmidhuber, Jürgen (2015). Deep Learning (Section on Backpropagation). Scholarpedia (англ.). 10 (11): 32832. Bibcode:2015SchpJ..1032832S. doi:10.4249/scholarpedia.32832.
- Fukushima, Kunihiko (October 1979). 位置ずれに影響されないパターン認識機構の神経回路のモデル --- ネオコグニトロン --- [Neural network model for a mechanism of pattern recognition unaffected by shift in position — Neocognitron —]. Trans. IECE (яп.). J62-A (10): 658—665.
- Fukushima, Kunihiko (April 1980). Neocognitron: A self-organizing neural network model for a mechanism of pattern recognition unaffected by shift in position. Biological Cybernetics (англ.). 36 (4): 193—202. doi:10.1007/BF00344251. PMID 7370364. S2CID 206775608.
- Le Cun, Yann. Deep Learning (англ.). CiteSeerX 10.1.1.297.6176.
- Hopfield, J J (April 1982). Neural networks and physical systems with emergent collective computational abilities. Proceedings of the National Academy of Sciences (англ.). 79 (8): 2554—2558. Bibcode:1982PNAS...79.2554H. doi:10.1073/pnas.79.8.2554. PMC 346238. PMID 6953413.
- Rumelhart, David E.; Hinton, Geoffrey E.; Williams, Ronald J. (October 1986). Learning representations by back-propagating errors. Nature (англ.). 323 (6088): 533—536. Bibcode:1986Natur.323..533R. doi:10.1038/323533a0. S2CID 205001834.
- Watksin, Christopher (1 травня 1989). Learning from Delayed Rewards (PDF) (англ.).
- Markoff, John (29 серпня 1990). BUSINESS TECHNOLOGY; What's the Best Answer? It's Survival of the Fittest. New York Times (англ.). Процитовано 8 червня 2016.
- Tesauro, Gerald (March 1995). Temporal difference learning and TD-Gammon. Communications of the ACM (англ.). 38 (3): 58—68. doi:10.1145/203330.203343. S2CID 8763243.
- Tin Kam Ho (1995). Random decision forests. Proceedings of 3rd International Conference on Document Analysis and Recognition (англ.). Т. 1. с. 278—282. doi:10.1109/ICDAR.1995.598994. ISBN .
- Cortes, Corinna; Vapnik, Vladimir (September 1995). Support-vector networks. Machine Learning (англ.). 20 (3): 273—297. doi:10.1007/BF00994018.
- Hochreiter, Sepp; Schmidhuber, Jürgen (1 листопада 1997). Long Short-Term Memory. Neural Computation (англ.). 9 (8): 1735—1780. doi:10.1162/neco.1997.9.8.1735. PMID 9377276. S2CID 1915014.
- LeCun, Yann; Cortes, Corinna; Burges, Christopher. THE MNIST DATABASE of handwritten digits (англ.). Процитовано 16 червня 2016.
- Collobert, Ronan; Benigo, Samy; Mariethoz, Johnny (30 жовтня 2002). (PDF) (англ.). Архів оригіналу (PDF) за 6 серпня 2016. Процитовано 5 червня 2016.
- . Netflix Prize (англ.). Netflix. Архів оригіналу за 3 March 2012. Процитовано 16 червня 2016.
- Gershgorn, Dave (26 липня 2017). ImageNet: the data that spawned the current AI boom — Quartz. qz.com (амер.). Процитовано 30 березня 2018.
- Hardy, Quentin (18 липня 2016). Reasons to Believe the A.I. Boom Is Real. The New York Times (англ.).
- . Kaggle (англ.). Kaggle Inc. Архів оригіналу за 18 березня 2016. Процитовано 16 червня 2016.
- Markoff, John (16 лютого 2011). Computer Wins on 'Jeopardy!': Trivial, It's Not. The New York Times (англ.). с. A1.
- Le, Quoc V. (2013). Building high-level features using large scale unsupervised learning. 2013 IEEE International Conference on Acoustics, Speech and Signal Processing (англ.). с. 8595—8598. doi:10.1109/ICASSP.2013.6639343. ISBN . S2CID 206741597.
- Markoff, John (26 червня 2012). How Many Computers to Identify a Cat? 16,000. New York Times (англ.). с. B1. Процитовано 5 червня 2016.
- The data that transformed AI research—and possibly the world. Quartz (англ.). 26 липня 2017. Процитовано 12 вересня 2023.
- PhD, Pedram Ataee (3 липня 2022). Word2Vec Models are Simple Yet Revolutionary. Medium (англ.). Процитовано 12 вересня 2023.
- Taigman, Yaniv; Yang, Ming; Ranzato, Marc'Aurelio; Wolf, Lior (24 червня 2014). DeepFace: Closing the Gap to Human-Level Performance in Face Verification. Conference on Computer Vision and Pattern Recognition (англ.). Процитовано 8 червня 2016.
- Canini, Kevin; Chandra, Tushar; Ie, Eugene; McFadden, Jim; Goldman, Ken; Gunter, Mike; Harmsen, Jeremiah; LeFevre, Kristen; Lepikhin, Dmitry; Llinares, Tomas Lloret; Mukherjee, Indraneel; Pereira, Fernando; Redstone, Josh; Shaked, Tal; Singer, Yoram. (PDF). Jack Baskin School of Engineering (англ.). UC Santa Cruz. Архів оригіналу (PDF) за 15 серпня 2017. Процитовано 8 червня 2016.
- Woodie, Alex (17 липня 2014). Inside Sibyl, Google's Massively Parallel Machine Learning Platform. Datanami (англ.). Tabor Communications. Процитовано 8 червня 2016.
- Google achieves AI 'breakthrough' by beating Go champion. BBC News (англ.). BBC. 27 січня 2016. Процитовано 5 червня 2016.
- . Google DeepMind (англ.). Google Inc. Архів оригіналу за 30 січня 2016. Процитовано 5 червня 2016.
- Vaswani, Ashish; Shazeer, Noam; Parmar, Niki; Uszkoreit, Jakob; Jones, Llion; Gomez, Aidan N.; Kaiser, Lukasz; Polosukhin, Illia (2017). Attention Is All You Need (англ.). arXiv:1706.03762.
- Sample, Ian (2 грудня 2018). Google's DeepMind predicts 3D shapes of proteins. The Guardian (англ.).
- Eisenstein, Michael (23 листопада 2021). Artificial intelligence powers protein-folding predictions. Nature (англ.). 599 (7886): 706—708. doi:10.1038/d41586-021-03499-y. S2CID 244528561.
Цитовані праці
- (1993). AI: The Tumultuous Search for Artificial Intelligence (англ.). New York: BasicBooks. ISBN .
- Marr, Bernard (19 лютого 2016). A Short History of Machine Learning -- Every Manager Should Read. Forbes (англ.). оригіналу за 5 грудня 2022. Процитовано 25 грудня 2022.
- ; Norvig, Peter (2003). Artificial Intelligence: A Modern Approach (англ.). London: Pearson Education. ISBN .
Вікіпедія, Українська, Україна, книга, книги, бібліотека, стаття, читати, завантажити, безкоштовно, безкоштовно завантажити, mp3, відео, mp4, 3gp, jpg, jpeg, gif, png, малюнок, музика, пісня, фільм, книга, гра, ігри, мобільний, телефон, android, ios, apple, мобільний телефон, samsung, iphone, xiomi, xiaomi, redmi, honor, oppo, nokia, sonya, mi, ПК, web, Інтернет
Chastina informaciyi v cij statti zastarila Vi mozhete dopomogti onovivshi yiyi Mozhlivo storinka obgovorennya mistit zauvazhennya shodo potribnih zmin lipen 2023 Cya storinka hronologiya rozvitku mashinnogo navchannya Do neyi vklyucheno osnovni vidkrittya dosyagnennya vihi ta inshi vazhlivi podiyi u mashinnomu navchanni OglyadDesyatirichchya Pidsumki do 1950 h Vidkrito ta vdoskonaleno statistichni metodi 1950 ti Provodyat pionerski doslidzhennya mashinnogo navchannya z vikoristannyam prostih algoritmiv 1960 ti Zaproponovano bayesovi metodi dlya jmovirnisnogo visnovuvannya v mashinnomu navchanni 1970 ti Pesimizm shodo efektivnosti mashinnogo navchannya sprichiniv zimu ShI 1980 ti Povtorne vidkrittya zvorotnogo poshirennya viklikaye pozhvavlennya doslidzhen mashinnogo navchannya 1990 ti Robota nad mashinnim navchannyam perehodit vid pidhodu kerovanogo znannyami do pidhodu kerovanogo danimi Naukovci pochinayut stvoryuvati programi dlya komp yuteriv shob analizuvati veliki obsyagi danih i robiti visnovki abo navchatisya z rezultativ Nabuvayut populyarnosti opornovektorni mashini OVM angl SVM ta rekurentni nejronni merezhi RNM angl RNN Zapochatkovano galuzi obchislyuvalnoyi skladnosti cherez nejronni merezhi ta nadtyuringovi obchislennya 2000 ti Nabuvayut shirokogo poshirennya opornovektorne klasteruvannya ta inshi yadrovi metodi a takozh metodi mashinnogo nekerovanogo navchannya 2010 ti Staye zdijsnennim gliboke navchannya sho prizvodit do togo sho mashinne navchannya staye nevid yemnoyu chastinoyu bagatoh shiroko vikoristovuvanih programnih sluzhb i zastosunkiv Gliboke navchannya stimulyuye velicheznij postup u bachenni ta obrobci tekstu 2020 ti Porodzhuvalnij ShI prizvodit do revolyucijnih modelej stvoryuyuchi rozmayittya en yak vlasnickih tak i vidkritih zokrema umozhlivlyuyuchi taki produkti yak ChatGPT na osnovi tekstu ta Stable Diffusion na osnovi zobrazhen Mashinne navchannya ta ShI vhodyat u shiroku gromadsku svidomist Komercijnij potencial ShI na osnovi mashinnogo navchannya prizvodit do znachnogo zrostannya ocinok vartosti kompanij pov yazanih z ShI HronologiyaCej spisok nezavershenij Vi mozhete dopomogti dodati punkti yakih brakuye Rik Tip podiyi Zagolovok Podiya 1763 Vidkrittya Pidvalini teoremi Bayesa Pracyu Tomasa Bayesa en opublikovano cherez dva roki pislya jogo smerti vipravlenu ta vidredagovanu drugom Bayesa en Ce ese podaye pracyu yaka lyagla v osnovu teorami Bayesa 1805 Vidkrittya Najmenshi kvadrati Adriyen Mari Lezhandr opisuye methode des moindres carres vidomij ukrayinskoyu yak metod najmenshih kvadrativ Jogo shiroko vikoristovuyut u en 1812 Teorema Bayesa P yer Simon Laplas publikuye Theorie Analytique des Probabilites u yakij rozshiryuye pracyu Bayesa ta viznachaye te sho vidome teper yak teorema Bayesa 1913 Vidkrittya Markovski lancyugi Andrij Markov upershe opisuye metodiki yaki vin vikoristovuvav dlya analizu virshiv Ci metodiki piznishe stali vidomimi yak markovski lancyugi 1943 Vidkrittya Shtuchnij nejron Vorren Makkaloh ta en rozroblyayut matematichnu model sho imituye funkciyuvannya biologichnogo nejrona shtuchnij nejron yaku vvazhayut pershoyu vinajdenoyu nejronnoyu modellyu 1950 Tyuringova samonavchalna mashina Alan Tyuring proponuye samonavchalnu mashinu sho mozhe navchatisya ta stati shtuchnim intelektom Konkretna propoziciya Tyuringa provishuye genetichni algoritmi 1951 Persha nejromerezhna mashina Marvin Minski ta Din Edmonds stvoryuyut pershu zdatnu navchatisya nejromerezhnu mashinu en 1952 Mashini sho grayut u shashki Artur Semyuel priyednuyetsya do laboratoriyi Poughkeepsie v IBM i pochinaye pracyuvati nad deyakimi z najpershih programam mashinnogo navchannya pershimi stvoryuyuchi programi yaki grayut u shashki 1957 Vidkrittya Perceptron Frenk Rozenblat pracyuyuchi v en vinahodit perceptron Vinajdennya perceptrona viklikaye velikij azhiotazh jogo shiroko visvitlyuyut u zasobah masovoyi informaciyi 1963 Dosyagnennya Mashini sho grayut u hrestiki nuliki en stvoryuye mashinu skladenu z 304 sirnikovih korobok ta namistin sho vikoristovuye navchannya z pidkriplennyam gri v hrestiki nuliki 1967 Najblizhchij susid Bulo stvoreno algoritm najblizhchogo susida sho ye pochatkom bazovogo rozpiznavannya obraziv Cej algoritm vikoristovuvali dlya prokladannya marshrutiv 1969 Obmezhennya nejronnih merezh Marvin Minski ta Sejmur Pejpert publikuyut svoyu knigu en sho opisuye deyaki z obmezhen perceptroniv ta nejronnih merezh Interpretaciyu yaku pokazuye kniga sho nejronni merezhi fundamentalno obmezheni rozglyadayut yak pereponu dlya doslidzhen nejronnih merezh 1970 Avtomatichne diferenciyuvannya zvorotne poshirennya en publikuye zagalnij metod avtomatichnogo diferenciyuvannya AD angl AD diskretnih zv yaznih merezh vkladenih diferencijovnih funkcij Ce vidpovidaye suchasnij versiyi zvorotnogo poshirennya ale she ne maye ciyeyi nazvi 1979 Stenfordskij vizok Studenti u Stenfordskomu universiteti rozroblyuyut vizok sho mozhe peresuvatisya j unikati pereshkod u kimnati 1979 Vidkrittya Neokognitron en vpershe publikuye svoyu pracyu pro neokognitron odin iz tipiv shtuchnih nejronnih merezh ShNM angl ANN Neokognitivnist piznishe nadihaye zgortkovi nejronni merezhi ZNM angl CNN 1981 Navchannya na osnovi poyasnen Dzherald Dedzhong proponuye navchannya na osnovi poyasnen angl Explanation Based Learning v yakomu komp yuternij algoritm analizuye dani ta stvoryuye zagalne pravilo yakomu vin mozhe sliduvati ta vidkidati nevazhlivi dani 1982 Vidkrittya Rekurentna nejronna merezha Dzhon Gopfild populyarizuye merezhi Gopfilda odin iz tipiv rekuretnih nejronnih merezh sho mozhut sluguvati sistemami pam yati z adresuvannyam vmistom 1985 en en rozrobiv programu yaka navchayetsya vimovlyati slova anglijskoyi movi tak samo yak ce robit ditina 1986 Zastosuvannya Zvorotne poshirennya Zvorotnij rezhim avtomatichnogo diferenciyuvannya en vpershe zastosovanij do nejronnih merezh en vikoristano v eksperimentah en Dzhefa Gintona ta en dlya navchannya vnutrishnih podan 1988 Teorema pro universalne nablizhennya teorema Cibenka de dovodit sho standartni bagatosharovi merezhi pryamogo poshirennya zdatni nablizhuvati bud yaku borelevo vimirnu funkciyu z odnogo skinchennovimirnogo prostoru do inshogo do bud yakogo stupenyu tochnosti za umovi nayavnosti dostatnoyi kilkosti prihovanih vuzliv 1989 Vidkrittya Navchannya z pidkriplennyam Kristofer Votkins rozroblyaye Q navchannya yake znachno pokrashuye praktichnist ta zdijsnennist navchannya z pidkriplennyam 1989 Komercializaciya Komercializaciya mashinnogo navchannya na personalnih komp yuterah Axcelis Inc vipuskaye en pershij programnij paket dlya komercializaciyi vikoristannya genetichnih algoritmiv na personalnih komp yuterah 1992 Dosyagnennya Mashini yaki grayut u korotki nardi Dzherald Tezauro rozrozbyaye ChR nardi angl TD Gammon komp yuternu programu dlya gri v korotki nardi yaka vikoristovuye shtuchnu nejronnu merezhu natrenovanu z vikoristannyam metodu chasovih riznic zvidsi ChR u nazvi ChR nardi zdatni konkuruvati ale ne zavzhdi perevershuvati zdibnosti najkrashih sered lyudej gravciv u korotki nardi 1995 Vidkrittya Algoritm vipadkovogo lisu Tin Kam Ho publikuye pracyu sho opisuye vipadkovi lisi rishen 1995 Vidkrittya Opornovektorni mashini Korinna Kortes ta Volodimir Vapnik publikuyut svoyu pracyu pro opornovektorni mashini 1997 Dosyagnennya IBM Deep Blue peremagaye Kasparova Deep Blue vid IBM peremagaye chempiona svitu z shahiv 1997 Vidkrittya DKChP angl LSTM en ta Yurgen Shmidhuber vinahodyat rekurentni nejronni merezhi z dovgoyu korotkochasnoyu pam yattyu DKChP sho znachno pokrashuye efektivnist ta praktichnist rekurentnih nejronnih merezh 1998 Baza danih MNIST Komanda pid provodom Yana LeKuna vipuskaye bazu danih MNIST nabir danih sho skladayetsya z sumishi rukopisnih cifr vid pracivnikiv Byuro perepisu naselennya ta starshoklasnikiv SShA Baza danih MNIST vidtodi stala etalonom dlya ocinyuvannya rozpiznavannya rukopisnogo tekstu 2002 Biblioteka mashinnogo navchannya Torch Pershij vipusk Torch biblioteki programnogo zabezpechennya mashinnogo navchannya 2006 Netflix Prize Netflix zapuskaye zmagannya en Meta zmagannya za dopomogoyu mashinnogo navchannya perevershiti tochnist vlasnogo programnogo zabezpechennya rekomendacij Netflix u peredbachuvanni ocinki filmu koristuvachem za nayavnih ocinok cim koristuvachem poperednih filmiv shonajmenshe na 10 Cyu premiyu bulo vigrano 2009 roku 2009 Dosyagnennya ImageNet Stvoreno en Ce velika baza danih zobrazhen stvorena Fej Fej Li zi Stenfordskogo universitetu yaka usvidomila sho najkrashi algoritmi mashinnogo navchannya ne pracyuvatimut dobre yaksho dani ne vidobrazhatimut realnogo svitu Dlya bagatoh ImageNet stala katalizatorom bumu ShI XXI storichchya 2010 Zmagannya Kaggle Zapusheno Kaggle vebsajt sho sluguye platformoyu dlya zmagan z mashinnogo navchannya 2011 Dosyagnennya Peremoga nad lyudmi v Jeopardy Vikoristovuyuchi poyednannya mashinnogo navchannya obrobki prirodnoyi movi ta metodik informacijnogo poshuku Watson vid IBM peremagaye dvoh chempioniv sered lyudej u zmaganni en 2012 Dosyagnennya Rozpiznavannya kotiv na YouTube Komanda Google Brain pid provodom Endryu Ina ta Dzheffa Dina stvoryuye nejronnu merezhu yaka navchayetsya rozpiznavati kotiv pereglyadayuchi nemicheni zobrazhennya vzyati z kadriv video YouTube 2012 Vidkrittya Vizualne rozpiznavannya Stattya ta algoritm AlexNet dosyagli prorivnih rezultativ u rozpiznavanni zobrazhen na etaloni ImageNet Ce spriyalo populyarizaciyi glibokih nejronnih merezh 2013 Vidkrittya Vkladannya sliv Shiroko citovana stattya sho otrimala prizvisko word2vec revolyucionizuvala obrobku tekstu v mashinnomu navchanni Vona pokazala yak kozhne slovo mozhlivo peretvoriti na poslidovnist chisel vkladennya sliv vikoristannya cih vektoriv revolyucionizuvalo obrobku tekstu v mashinnomu navchanni 2014 Stribok u rozpiznavanni oblich Doslidniki z Facebook publikuyut svoyu pracyu shodo en sistemi yaka vikoristovuye nejronni merezhi j identifikuye oblichchya z tochnistyu 97 35 Ci rezultati ye pokrashennyam na ponad 27 vidnosno poperednih sistem i skladayut konkurenciyu lyudskij produktivnosti 2014 Sibyl Doslidniki z Google rozkrili detali svoyeyi praci nad Sibyl vlasnoyu platformoyu dlya masovo paralelnogo mashinnogo navchannya yaku Google vikoristovuye vseredini dlya peredbachuvannya povedinki koristuvachiv ta nadavannya rekomendacij 2016 Dosyagnennya Peremoga nad lyudmi v go Programa AlphaGo vid Google staye pershoyu programoyu komp yuternogo go yaka peremogla fahovogo lyudskogo gravcya bez obmezhen vikoristovuyuchi poyednannya metodik mashinnogo navchannya ta poshuku derevami Piznishe vdoskonalena yak en a 2017 roku uzagalnena na shahi ta dodatkovi igri dlya dvoh gravciv yak AlphaZero 2017 Vidkrittya Transformer Komanda Google Brain vinajshla arhitekturu transformera sho umozhlivila shvidshe paralelne trenuvannya nejronnih merezh na poslidovnih danih takih yak tekst 2018 Dosyagnennya Peredbachuvannya strukturi bilkiv U grudni 2018 roku AlphaFold 1 2018 posila pershe misce v zagalnomu rejtingu 13 go Kritichnogo analizu metodiv dlya strukturnih peredbachen bilkiv KASP 2021 Dosyagnennya Peredbachuvannya strukturi bilkiv AlphaFold 2 2021 komanda yaka vikoristovuvala AlphaFold 2 2020 pidtverdila ce misce na zmagannyah KASP u listopadi 2020 roku Cya komanda dosyagla nabagato vishogo rivnya tochnosti nizh bud yaka insha grupa Vona nabrala ponad 90 baliv dlya priblizno dvoh tretin z bilkiv u viprobuvanni KASP na globalnu vidstan angl GDT viprobuvanni yaka vimiryuye stupin podibnosti peredbachenoyi obchislyuvalnoyu programoyu strukturi do eksperimentalno vstanovlenoyi v laboratoriyi de 100 ce povnij zbig u mezhah granichnoyi vidstani yaku vikoristovuyut dlya obchislennya GDT Div takozhIstoriya shtuchnogo intelektu en en PrimitkiCituvannya Solomonoff R J June 1964 A formal theory of inductive inference Part II Information and Control angl 7 2 224 254 doi 10 1016 S0019 9958 64 90131 7 Marr 2016 Siegelmann H T Sontag E D February 1995 On the Computational Power of Neural Nets Journal of Computer and System Sciences angl 50 1 132 150 doi 10 1006 jcss 1995 1013 Siegelmann Hava 1995 Computation Beyond the Turing Limit Journal of Computer and System Sciences angl 238 28 632 637 Bibcode 1995Sci 268 545S doi 10 1126 science 268 5210 545 PMID 17756722 S2CID 17495161 Ben Hur Asa Horn David Siegelmann Hava Vapnik Vladimir 2001 Support vector clustering Journal of Machine Learning Research angl 2 51 86 Hofmann Thomas Scholkopf Bernhard Smola Alexander J 2008 Kernel methods in machine learning The Annals of Statistics angl 36 3 1171 1220 arXiv math 0701907 doi 10 1214 009053607000000677 JSTOR 25464664 Bennett James Lanning Stan 2007 The netflix prize PDF Proceedings of KDD Cup and Workshop 2007 angl Bayes Thomas 1 sichnya 1763 An Essay towards solving a Problem in the Doctrine of Chance Philosophical Transactions angl 53 370 418 doi 10 1098 rstl 1763 0053 JSTOR 105741 Legendre Adrien Marie 1805 Nouvelles methodes pour la determination des orbites des cometes fr Paris Firmin Didot s viii Procitovano 13 chervnya 2016 O Connor J J Robertson E F Pierre Simon Laplace angl School of Mathematics and Statistics University of St Andrews Scotland Procitovano 15 chervnya 2016 Langston Nancy 2013 Mining the Boreal North American Scientist angl 101 2 1 doi 10 1511 2013 101 1 Zagliblyuyuchis u tekst romanu v virshah Oleksandra Pushkina Yevgenij Onyegin Markov godinami perebirav shemi golosnih ta prigolosnih 23 sichnya 1913 roku vin uzagalniv svoyi visnovki u zvernenni do Imperatorskoyi akademiyi nauk u Sankt Peterburzi Jogo analiz ne zminiv rozuminnya chi ocinok romanu Pushkina ale metodika yaku vin rozrobiv vidoma teper yak markovskij lancyug rozshirila teoriyu jmovirnostej u novomu napryamku McCulloch Warren S Pitts Walter December 1943 A logical calculus of the ideas immanent in nervous activity The Bulletin of Mathematical Biophysics angl 5 4 115 133 doi 10 1007 BF02478259 Turing A M 1 zhovtnya 1950 I COMPUTING MACHINERY AND INTELLIGENCE Mind angl LIX 236 433 460 doi 10 1093 mind LIX 236 433 Crevier 1993 s 34 35 ta Russell ta Norvig 2003 s 17 McCarthy J Feigenbaum E 1 veresnya 1990 In memoriam Arthur Samuel 1901 1990 AI Magazine angl 11 3 10 11 Rosenblatt F 1958 The perceptron A probabilistic model for information storage and organization in the brain Psychological Review angl 65 6 386 408 CiteSeerX 10 1 1 588 3775 doi 10 1037 h0042519 PMID 13602029 S2CID 12781225 Mason Harding Stewart D Gill Brendan 6 grudnya 1958 Rival The New Yorker angl Procitovano 5 chervnya 2016 Child Oliver 13 bereznya 2016 Menace the Machine Educable Noughts And Crosses Engine Read Chalkdust Magazine angl Procitovano 16 sichnya 2018 Cohen Harvey The Perceptron angl Procitovano 5 chervnya 2016 1970 Algoritmin kumulatiivinen pyoristysvirhe yksittaisten pyoristysvirheiden taylor kehitelmana The representation of the cumulative rounding error of an algorithm as a Taylor expansion of the local rounding errors PDF Diplomna robota fin s 6 7 1976 Taylor expansion of the accumulated rounding error BIT Numerical Mathematics angl 16 2 146 160 doi 10 1007 BF01931367 S2CID 122357351 Griewank Andreas 2012 Who Invented the Reverse Mode of Differentiation Documenta Matematica Extra Volume ISMP angl 389 400 Griewank Andreas Walther A 2008 Principles and Techniques of Algorithmic Differentiation angl vid Second SIAM ISBN 978 0898716597 Schmidhuber Jurgen 2015 Deep learning in neural networks An overview Neural Networks angl 61 85 117 arXiv 1404 7828 Bibcode 2014arXiv1404 7828S doi 10 1016 j neunet 2014 09 003 PMID 25462637 S2CID 11715509 Schmidhuber Jurgen 2015 Deep Learning Section on Backpropagation Scholarpedia angl 10 11 32832 Bibcode 2015SchpJ 1032832S doi 10 4249 scholarpedia 32832 Fukushima Kunihiko October 1979 位置ずれに影響されないパターン認識機構の神経回路のモデル ネオコグニトロン Neural network model for a mechanism of pattern recognition unaffected by shift in position Neocognitron Trans IECE yap J62 A 10 658 665 Fukushima Kunihiko April 1980 Neocognitron A self organizing neural network model for a mechanism of pattern recognition unaffected by shift in position Biological Cybernetics angl 36 4 193 202 doi 10 1007 BF00344251 PMID 7370364 S2CID 206775608 Le Cun Yann Deep Learning angl CiteSeerX 10 1 1 297 6176 Hopfield J J April 1982 Neural networks and physical systems with emergent collective computational abilities Proceedings of the National Academy of Sciences angl 79 8 2554 2558 Bibcode 1982PNAS 79 2554H doi 10 1073 pnas 79 8 2554 PMC 346238 PMID 6953413 Rumelhart David E Hinton Geoffrey E Williams Ronald J October 1986 Learning representations by back propagating errors Nature angl 323 6088 533 536 Bibcode 1986Natur 323 533R doi 10 1038 323533a0 S2CID 205001834 Watksin Christopher 1 travnya 1989 Learning from Delayed Rewards PDF angl Markoff John 29 serpnya 1990 BUSINESS TECHNOLOGY What s the Best Answer It s Survival of the Fittest New York Times angl Procitovano 8 chervnya 2016 Tesauro Gerald March 1995 Temporal difference learning and TD Gammon Communications of the ACM angl 38 3 58 68 doi 10 1145 203330 203343 S2CID 8763243 Tin Kam Ho 1995 Random decision forests Proceedings of 3rd International Conference on Document Analysis and Recognition angl T 1 s 278 282 doi 10 1109 ICDAR 1995 598994 ISBN 0 8186 7128 9 Cortes Corinna Vapnik Vladimir September 1995 Support vector networks Machine Learning angl 20 3 273 297 doi 10 1007 BF00994018 Hochreiter Sepp Schmidhuber Jurgen 1 listopada 1997 Long Short Term Memory Neural Computation angl 9 8 1735 1780 doi 10 1162 neco 1997 9 8 1735 PMID 9377276 S2CID 1915014 LeCun Yann Cortes Corinna Burges Christopher THE MNIST DATABASE of handwritten digits angl Procitovano 16 chervnya 2016 Collobert Ronan Benigo Samy Mariethoz Johnny 30 zhovtnya 2002 PDF angl Arhiv originalu PDF za 6 serpnya 2016 Procitovano 5 chervnya 2016 Netflix Prize angl Netflix Arhiv originalu za 3 March 2012 Procitovano 16 chervnya 2016 Gershgorn Dave 26 lipnya 2017 ImageNet the data that spawned the current AI boom Quartz qz com amer Procitovano 30 bereznya 2018 Hardy Quentin 18 lipnya 2016 Reasons to Believe the A I Boom Is Real The New York Times angl Kaggle angl Kaggle Inc Arhiv originalu za 18 bereznya 2016 Procitovano 16 chervnya 2016 Markoff John 16 lyutogo 2011 Computer Wins on Jeopardy Trivial It s Not The New York Times angl s A1 Le Quoc V 2013 Building high level features using large scale unsupervised learning 2013 IEEE International Conference on Acoustics Speech and Signal Processing angl s 8595 8598 doi 10 1109 ICASSP 2013 6639343 ISBN 978 1 4799 0356 6 S2CID 206741597 Markoff John 26 chervnya 2012 How Many Computers to Identify a Cat 16 000 New York Times angl s B1 Procitovano 5 chervnya 2016 The data that transformed AI research and possibly the world Quartz angl 26 lipnya 2017 Procitovano 12 veresnya 2023 PhD Pedram Ataee 3 lipnya 2022 Word2Vec Models are Simple Yet Revolutionary Medium angl Procitovano 12 veresnya 2023 Taigman Yaniv Yang Ming Ranzato Marc Aurelio Wolf Lior 24 chervnya 2014 DeepFace Closing the Gap to Human Level Performance in Face Verification Conference on Computer Vision and Pattern Recognition angl Procitovano 8 chervnya 2016 Canini Kevin Chandra Tushar Ie Eugene McFadden Jim Goldman Ken Gunter Mike Harmsen Jeremiah LeFevre Kristen Lepikhin Dmitry Llinares Tomas Lloret Mukherjee Indraneel Pereira Fernando Redstone Josh Shaked Tal Singer Yoram PDF Jack Baskin School of Engineering angl UC Santa Cruz Arhiv originalu PDF za 15 serpnya 2017 Procitovano 8 chervnya 2016 Woodie Alex 17 lipnya 2014 Inside Sibyl Google s Massively Parallel Machine Learning Platform Datanami angl Tabor Communications Procitovano 8 chervnya 2016 Google achieves AI breakthrough by beating Go champion BBC News angl BBC 27 sichnya 2016 Procitovano 5 chervnya 2016 Google DeepMind angl Google Inc Arhiv originalu za 30 sichnya 2016 Procitovano 5 chervnya 2016 Vaswani Ashish Shazeer Noam Parmar Niki Uszkoreit Jakob Jones Llion Gomez Aidan N Kaiser Lukasz Polosukhin Illia 2017 Attention Is All You Need angl arXiv 1706 03762 Sample Ian 2 grudnya 2018 Google s DeepMind predicts 3D shapes of proteins The Guardian angl Eisenstein Michael 23 listopada 2021 Artificial intelligence powers protein folding predictions Nature angl 599 7886 706 708 doi 10 1038 d41586 021 03499 y S2CID 244528561 Citovani praci 1993 AI The Tumultuous Search for Artificial Intelligence angl New York BasicBooks ISBN 0 465 02997 3 Marr Bernard 19 lyutogo 2016 A Short History of Machine Learning Every Manager Should Read Forbes angl originalu za 5 grudnya 2022 Procitovano 25 grudnya 2022 Norvig Peter 2003 Artificial Intelligence A Modern Approach angl London Pearson Education ISBN 0 137 90395 2