Google Brain — це група з глибокого вивчення штучного інтелекту під керівництвом Google AI, дослідницького підрозділу Google, присвяченого штучному інтелекту. Створена у 2011 році, Google Brain поєднує відкриті дослідження машинного навчання з інформаційними системами та великими обчислювальними ресурсами. Команда створила такі інструменти, як TensorFlow, який надає публічний доступ для роботи із нейронною мережею, з безліччю внутрішніх наукових проектів у сфері ШІ. Команда націлена на створення дослідницьких можливостей у машинному навчанні та обробці природних мов.
Google Brain | |
Сфера роботи | машинне навчання і глибоке навчання |
---|---|
Названо на честь | головний мозок |
Засновник | Джефф Дін[1], Ендрю Ин і d[1] |
Час/дата припинення існування | квітень 2023 |
У квітні 2023 року команда була об’єднана з колишньою дочірньою компанією Google DeepMind.
Історія
Так званий проект «Google Brain» почався в 2011 році як сторонній дослідний проект наукового співробітника Google Джеффа Діна, дослідника Google Грега Коррадо і професора Стенфордського університету Ендрю Ина. Ин цікавився використанням методів глибокого навчання для вирішення завдань штучного інтелекту з 2006 року, а у 2011 році почав співпрацювати з Діном і Коррадо для створення великомасштабної системи глибокого навчання DistBelief поверх інфраструктури хмарних обчислень Google. Google Brain був запущений як проект Google X і став настільки успішним, що повернувся назад в Google: [en] сказав, що Google Brain окупив всю вартість Google X.
У червні 2012 року New York Times повідомила, що кластер з 16000 комп'ютерів, призначених для імітації деяких аспектів діяльності мозку людини, навчився розпізнавати на зображеннях котів на основі 10 мільйонів цифрових зображень, отриманих з роликів на YouTube. Також ця історія була висвітлена на National Public Radio і в Smart Planetruen.
У березні 2013 року Google найняла Джефрі Гінтона, провідного дослідника в області глибокого навчання, і придбала компанію DNNResearch, якою керував Гінтон. Гінтон сказав, що буде розподіляти свій час між дослідженням в університеті і роботою в Google.
У квітні 2023 року Google Brain об’єдналася з дочірньою компанією Google DeepMind у рамках постійних зусиль компанії щодо прискорення роботи над ШІ.
Команда і місце розташування
Спочатку Google Brain був створений науковим співробітником Google Джеффом Діном і запрошеним зі Стенфорда професором Ендрю Ином. У 2014 році до складу команди увійшли Джефф Дін, Куок Ле, Ілля Суцкевер, Алекс Крижевський, [en] та Вінсент Ванхуке. На 2017 рік членами команд є: Анелія Ангелова, Семі Бенджо, Грег Коррадо, Джордж Дал, Майкл Ізард, Анжулі Каннан, Уго Ларочелле, Квок Ле, Крис Ола, Вінсент Ванхуке, Віджей Васудеван та [en]. [en] відомий тим, що створив мову програмування Apple Swift та згодом очолював команду безпілотних автомобілів Tesla протягом шести місяців, приєднався до команди Google Brain в серпні 2017 року. Латтнер покинув команду в січні 2020 року та приєднався до SiFive.
У 2021 році Google Brain очолюють Джефф Дін, Джефрі Гінтон і [en]. Серед інших членів — Кетрін Хеллер, Пі-Чуан Чанг, Ян Саймон, Жан-Філіпп Верт, Невена Лазіч, Анелія Ангелова, Лукаш Кайзер, Кері Джун Кай, Ерік Брек, Румінг Панг, Карлос Рікельме, Девід Ха. Самі Бенджо покинув команду у квітні 2021 року, коли Зубін Гахрамані взяв на себе його обов'язки.
Google Research включає Google Brain і базується в Маунтін-В'ю, Каліфорнія. Він також має групи в Аккрі, Амстердамі, Атланті, Пекіні, Берліні, Кембриджі (Массачусетс), Ізраїлі, Лос-Анджелесі, Лондоні, Монреалі, Мюнхені, Нью-Йорку, Парижі, Піттсбурзі, Принстоні, Сан-Франциско, Сіетлі, Токіо, Торонто, і Цюриху.
Проекти
Система шифрування, створена штучним інтелектом
У жовтні 2016 року Google Brain розробив експеримент, щоб визначити, що нейронні мережі здатні навчитися безпечному симетричному шифруванню. У цьому експерименті було створено три нейромережі: Аліса, Боб та Єва. Дотримуючись ідеї генеративної змагальної мережі, метою експерименту було навчити Алісу створювати зашифровані повідомлення для Боба, яке Боб міг би розшифрувати, але Єва, не змогла б. Аліса та Боб мали перевагу над Євою, оскільки в них був ключ, що використовується для шифрування та дешифрування. Тим самим Google Brain продемонстрував здатність нейронних мереж навчатися безпечному шифруванню.
Покращення зображень
У лютому 2017 року Google Brain знайшли імовірнісний метод для перетворення зображень з роздільною здатністю 8x8 в роздільну здатність 32x32. Метод заснований на раніше відомій ймовірнісній моделі pixelCNN для генерування перетворень пікселів.
Запропоноване програмне рішення використовує дві нейронні мережі для апроксимації пікселів зображень при перетворенні. Перша мережа, відома як «мережа підготовки» (англ. conditioning network), яка зменшує розміри зображень з високою роздільною здатністю до розміру 8x8 і намагається створити відображення з оригінального зображення 8x8 до цих зображень з вищою роздільною здатністю. Інша мережа, відома як «апріорна мережа», використовує відображення з попередньої мережі, щоб додати більше деталей до вихідного зображення. Отримане перетворене зображення — це не те саме зображення у вищій роздільній здатності, а скоріше оцінка зображення з роздільною здатністю 32x32, зроблена на основі інших наявних зображень із високою роздільною здатністю. Результати Google Brain вказують на можливість нейронних мереж покращувати зображення.
Перекладач Google
Внеском команди Google Brain до проекту Google Translate, стало використання нової системи глибокого навчання, яка поєднує штучні нейронні мережі з величезними базами даних багатомовних текстів. У вересні 2016 року було запущено Google Neural Machine Translation (GNMT), наскрізну систему навчання, яка може вчитися на великій кількості прикладів. Раніше підхід Google Translate на основі фразового машинного перекладу (англ. Phrase-Based Machine Translation, PBMT) статистично аналізував слово за словом і намагався знайти відповідні слова іншими мовами, не враховуючи навколишні фрази в реченні. Але замість того, щоб вибирати заміну для кожного окремого слова бажаною мовою, GNMT оцінює сегменти слів у контексті решти речення, щоб вибрати більш точні заміни. У порівнянні зі старішими моделями PBMT, модель GNMT набрала 24 % покращення схожості з перекладом, який зробила людина, при цьому кількість помилок зменшилася на 60 %. GNMT також продемонстрував значне покращення для заздалегідь складних перекладів, таких як переклад з китайської мови на англійську.
Хоча запровадження GNMT підвищило якість перекладів Google Translate для пілотних мов, було дуже важко створити такі покращення для всіх його 103 мов. Вирішуючи цю проблему, команда Google Brain Team змогла розробити багатомовну систему GNMT, яка розширила попередню, забезпечивши переклади між кількома мовами. Крім того, вона дозволяє здійснювати переклади Zero-Shot, що є перекладами між двома мовами, які система ніколи раніше явно не зустрічала. Google оголосила, що Google Translate тепер також може перекладати без транскрибування, використовуючи нейронні мережі. Це означає, що можливо перекласти мовлення однією мовою безпосередньо в текст іншою мовою, попередньо не транскрибуючи її в текст. За словами дослідників Google Brain, цього проміжного кроку можна уникнути за допомогою нейронних мереж. Щоб система засвоїла це, вони ознайомили її з багатогодинним аудіо іспанською мовою разом із відповідним англійським текстом. Різні шари нейронних мереж, що копіюють людський мозок, змогли зв'язати відповідні частини і згодом маніпулювати звуковою формою, поки вона не була перетворена в англійський текст. Іншим недоліком моделі GNMT є те, що час перекладу збільшується в геометричній прогресії разом із кількістю слів у реченні. Це змусило команду Google Brain Team додати ще 2000 процесорів, щоб гарантувати, що новий процес перекладу буде швидким і надійним.
Робототехніка
Прагнучи покращити традиційні алгоритми керування робототехнікою, де нові навички робота потрібно програмувати вручну, дослідники з робототехніки з Google Brain розробляють методи машинного навчання, які б дозволили роботам опановувати нові навички самостійно. Вони також намагаються розробити способи обміну інформацією між роботами, щоб роботи могли вчитися один у одного під час процесу навчання, також відомого як [en]. Як результат, Google запустила платформу Google Cloud Robotics Platform для розробників у 2019 році, намагаючись об'єднати робототехніку, AI та хмарні технології, щоб забезпечити ефективну автоматизацію співпраці роботів, які підключені до хмари.
Робототехнічні дослідження в Google Brain зосереджені здебільшого на вдосконаленні та застосуванні алгоритмів глибокого навчання, які б дозволили роботам виконувати завдання, навчаючись за допомогою власного досвіду, моделювання, людських демонстрацій та/або візуальних даних. Наприклад, дослідники Google Brain показали, що роботи можуть навчитися підіймати та складати тверді об'єкти у ящики, не бувши попередньо запрограмованим на це, за допомогою проведення експериментів у специфічному середовищі. В іншому проекті дослідники натренували роботів вчитися таким процесам, як виливання рідини з чашки. Роботи навчилися за допомогою показу відеозаписів людей, які виконують це завдання, записаних з різних точок зору.
Дослідники Google Brain співпрацюють з іншими компаніями та академічними установами, що досліджують робототехніку. У 2016 році команда Google Brain Team співпрацювала з дослідниками з X у дослідженні з вивчення координації рук і очей для роботизованого хапання. Їх метод дозволив керувати роботом у реальному часі для хапання нових об'єктів із самокоригуванням. У 2020 році дослідники з Google Brain, Intel AI Lab і UC Berkeley створили модель штучного інтелекту для роботів, які вчаться завданням пов'язаних із хірургією, за допомогою відео справжніх операцій. Зокрема, їх навчали накладанню швів.
Інтерактивне розпізнавання мовця за допомогою навчання з підкріпленням
У 2020 році команда Google Brain Team та Лілльського університету представили модель автоматичного розпізнавання мовця, яку вони назвали Interactive Speaker Recognition (ISR). Модуль ISR розпізнає мовця з заданого списку мовців, лише запитуючи декілька слів, специфічних для користувача. Модель можна змінити, щоб була можливість вибрати сегменти мовлення в контексті навчання синтезу мовлення. Також вона може захистити дані у випадку використання зловмисниками генераторів мовлення.
TensorFlow
TensorFlow — це бібліотека програмного забезпечення з відкритим вихідним кодом на базі Google Brain, яка дозволяє будь-кому використовувати машинне навчання, надаючи інструменти для тренування власної нейронної мережі. Наприклад, цей інструмент використовувався для зменшення кількості ручної праці на фермі по сортуванню врожаю. Для цього була натренована нейронна мережа на наборі зображень попередньо відсортованих людьми.
Magenta
Magenta — це проект, який використовує Google Brain для створення нової інформації у вигляді мистецтва та музики, а не для класифікації та сортування наявних даних. TensorFlow було оновлено набором інструментів для користувачів, за допомогою яких вони можуть вчити нейронну мережу створенню зображень і музики. Однак команда з [en] виявила, що ШІ не може досконало відтворювати людські наміри в мистецтві, подібно до складнощів, які виникають при перекладі текстів.
Застосування у медицині
Можливості класифікації зображень Google Brain використовуються, для виявлення певних медичних захворювань шляхом пошуку ознак, які є корисними для ранньої діагностики, проте лікарі можуть їх не зауважити. Під час скринінгу на рак молочної залози було виявлено, що цей метод на 75 % рідше ставить невірний позитивний діагноз, ніж лікарі-людини, яким потрібно більше часу, щоб переглянути кожну фотографію. Через дуже специфічну підготовку нейронної мережі для виконання окремого завдання, вона не може визначити інші хвороби, які фахівець легко впізнає на фотографії.
Інші продукти Google
Технологія проектів Google Brain наразі використовується в інших продуктах Google, таких як система розпізнавання мовлення операційної системи Android, пошук фотографій у Google Photos, розумна відповідь у Gmail та рекомендації відео на YouTube.
Визнання
Google Brain отримав висвітлення в Wired Magazine, National Public Radio, і [en]. Ці статті містили інтерв'ю з ключовими членами команди Реєм Курцвейлом та Ендрю Ином і зосереджені на поясненнях цілей та застосуваннях проекту.
Дискусія
У грудні 2020 року спеціалістка з питань етики ШІ [en] залишила Google. Причиною звільнення стала її відмова відкликати статтю під назвою «Про небезпеку стохастичних папуг: чи можуть мовні моделі бути занадто великими?» У цій статті досліджуються потенційні ризики розвитку штучного інтелекту, такого як Google Brain, зокрема їхній вплив на навколишнє середовище, упередження в навчальних даних та здатність обманювати громадськість. З проханням відкликати статтю звернулася Меган Качолія, віцепрезидент Google Brain. Станом на квітень 2021 року майже 7000 нинішніх або колишніх співробітників Google і прихильників галузі підписали відкритий лист, в якому звинувачують Google у «цензурі досліджень» та засуджують те, як повелася компанії з Гебру.
У лютому 2021 року Google звільнив Маргарет Мітчелл, одну з керівників команди з етики в галузі штучного інтелекту. У заяві компанії стверджується, що Мітчелл порушила політику компанії, використовуючи автоматизовані інструменти для пошуку підтримки для Гебру. У тому ж місяці інженери поза командою з етики почали звільнятися, посилаючись на «неправомірне» звільнення Гебру, як причину свого звільнення. У квітні 2021 року співзасновник Google Brain [en] оголосив про свою відставку з компанії. Попри те, що він був менеджером Гебру, Бенджіо не був повідомлений про її звільнення, і він опублікував пост в Інтернеті на підтримку і неї, і Мітчелл. Хоча пост Бенджіо зосереджувалося на особистісному зростанні як причині його відходу, анонімні джерела вказали Reuters, що негаразди в команді з етики ШІ зіграли певну роль у його міркуваннях.
Див. також
- Штучний інтелект
- Живопис на основі штучного інтелекту
- Глибоке навчання
- [en]
- [en] — запущена Google у співпраці з NASA і Асоціацією космічних досліджень університетів
- Ноогенез
- TensorFlow
- [en]
- [en]
- Трансформер (архітектура глибокого навчання)
Примітки
- https://backchannel.com/how-google-is-remaking-itself-as-a-machine-learning-first-company-ada63defcb70#.s564p1oum
- «What is Google Brain?» [ 2 червня 2021 у Wayback Machine.]. GeeksforGeeks. 2020-02-06. Retrieved 2021-04-09
- Helms, Mallory; Ault, Shaun V.; Mao, Guifen; Wang, Jin (2018-03-09). "An Overview of Google Brain and Its Applications". Proceedings of the 2018 International Conference on Big Data and Education. ICBDE '18. Honolulu, HI, USA: Association for Computing Machinery: 72–75. doi:10.1145/3206157.3206175. ISBN 978-1-4503-6358-7. S2CID 44107806.
- Peters, Jay (20 квітня 2023). Google’s big AI push will combine Brain and DeepMind into one team. The Verge (амер.). Процитовано 21 квітня 2023.
- (25 червня 2012). How Many Computers to Identify a Cat? 16,000. The New York Times. Процитовано 11 лютого 2014.
- Jeffrey Dean; et al. (December 2012). «Large Scale Distributed Deep Networks» [ 26 січня 2016 у Wayback Machine.] (PDF). Retrieved 25 October 2015.
- Conor Dougherty (16 February 2015). «Astro Teller, Google's 'Captain of Moonshots,' on Making Profits at Google X» [ 22 жовтня 2015 у Wayback Machine.]. Retrieved 25 October 2015.
- . National Public Radio. 26 червня 2012. Архів оригіналу за 13 червня 2021. Процитовано 11 лютого 2014.
- «U of T neural networks start-up acquired by Google» [ 8 жовтня 2019 у Wayback Machine.] (Press release). Toronto, ON. 12 March 2013. Retrieved 13 March 2013.
- «Brain Team — Google Research» [ 2 жовтня 2021 у Wayback Machine.]. Google Research. Retrieved 2021-04-08.
- Etherington, Darrell (Aug 14, 2017). «Swift creator Chris Lattner joins Google Brain after Tesla Autopilot stint» [ 19 серпня 2021 у Wayback Machine.]. TechCrunch. Retrieved 11 October 2017.
- «Former Google and Tesla Engineer Chris Lattner to Lead SiFive Platform Engineering Team» [ 3 червня 2021 у Wayback Machine.]. www.businesswire.com. 2020-01-27. Retrieved 2021-04-09
- Dave, Jeffrey Dastin, Paresh (7 квітня 2021). . Reuters (англ.). Архів оригіналу за 2 червня 2021. Процитовано 8 квітня 2021.
- «Build for Everyone — Google Careers» [ 5 жовтня 2021 у Wayback Machine.]. careers.google.com. Retrieved 2021-04-08.
- Zhu, Y.; Vargas, D. V.; Sakurai, K. (November 2018). «Neural Cryptography Based on the Topology Evolving Neural Networks» [ 2 червня 2021 у Wayback Machine.]. 2018 Sixth International Symposium on Computing and Networking Workshops (CANDARW): 472—478. doi:10.1109/CANDARW.2018.00091. ISBN 978-1-5386-9184-7. S2CID 57192497.
- Abadi, Martín; Andersen, David G. (2016). «Learning to Protect Communications with Adversarial Neural Cryptography». arXiv:1610.06918. Bibcode:2016arXiv161006918A.
- Dahl, Ryan; Norouzi, Mohammad; Shlens, Jonathon (2017). Pixel Recursive Super Resolution. arXiv:1702.00783. Bibcode:2017arXiv170200783D.
- . arstechnica.co.uk. 7 лютого 2017. Архів оригіналу за 13 липня 2021. Процитовано 15 травня 2017.
- Bulat, Adrian; Yang, Jing; Tzimiropoulos, Georgios (2018), , Computer Vision – ECCV 2018, Cham: Springer International Publishing: 187—202, arXiv:1807.11458, doi:10.1007/978-3-030-01231-1_12, ISBN , архів оригіналу за 26 грудня 2021, процитовано 9 квітня 2021
- Oord, Aaron Van; Kalchbrenner, Nal; Kavukcuoglu, Koray (11 червня 2016). . International Conference on Machine Learning (англ.). PMLR: 1747—1756. arXiv:1601.06759. Архів оригіналу за 1 жовтня 2021. Процитовано 4 травня 2022.
- . engadget.com. Архів оригіналу за 2 травня 2021. Процитовано 15 травня 2017.
- . cnet.com. Архів оригіналу за 5 вересня 2021. Процитовано 15 травня 2017.
- Castelvecchi, Davide (2016). . Nature News (англ.). doi:10.1038/nature.2016.20696. Архів оригіналу за 8 листопада 2020. Процитовано 4 травня 2022.
- Lewis-Kraus, Gideon (14 грудня 2016). . The New York Times (амер.). ISSN 0362-4331. Архів оригіналу за 5 травня 2017. Процитовано 8 квітня 2021.
- Johnson, Melvin; Schuster, Mike; Le, Quoc V.; Krikun, Maxim; Wu, Yonghui; Chen, Zhifeng; Thorat, Nikhil; Viégas, Fernanda; Wattenberg, Martin (1 жовтня 2017). Google's Multilingual Neural Machine Translation System: Enabling Zero-Shot Translation. Transactions of the Association for Computational Linguistics. 5: 339—351. doi:10.1162/tacl_a_00065. ISSN 2307-387X.
- Reynolds, Matt. . New Scientist. Архів оригіналу за 18 квітня 2021. Процитовано 15 травня 2017.
- Metz, Cade; Dawson, Brian; Felling, Meg (26 березня 2019). . The New York Times (амер.). ISSN 0362-4331. Архів оригіналу за 16 вересня 2021. Процитовано 8 квітня 2021.
- . The Robot Report (амер.). 24 жовтня 2018. Архів оригіналу за 26 серпня 2021. Процитовано 8 квітня 2021.
- Zeng, A.; Song, S.; Lee, J.; Rodriguez, A.; Funkhouser, T. (August 2020). TossingBot: Learning to Throw Arbitrary Objects With Residual Physics. IEEE Transactions on Robotics. 36 (4): 1307—1319. doi:10.1109/TRO.2020.2988642. ISSN 1941-0468.
- Gu, S.; Holly, E.; Lillicrap, T.; Levine, S. (May 2017). . 2017 IEEE International Conference on Robotics and Automation (ICRA): 3389—3396. arXiv:1610.00633. doi:10.1109/ICRA.2017.7989385. ISBN . Архів оригіналу за 13 травня 2021. Процитовано 4 травня 2022.
- Sermanet, P.; Lynch, C.; Chebotar, Y.; Hsu, J.; Jang, E.; Schaal, S.; Levine, S.; Brain, G. (May 2018). . 2018 IEEE International Conference on Robotics and Automation (ICRA): 1134—1141. arXiv:1704.06888. doi:10.1109/ICRA.2018.8462891. ISBN . Архів оригіналу за 4 травня 2021. Процитовано 4 травня 2022.
- Tanwani, A. K.; Sermanet, P.; Yan, A.; Anand, R.; Phielipp, M.; Goldberg, K. (May 2020). . 2020 IEEE International Conference on Robotics and Automation (ICRA): 2174—2181. arXiv:2006.00545. doi:10.1109/ICRA40945.2020.9197324. ISBN . Архів оригіналу за 4 травня 2021. Процитовано 4 травня 2022.
- Levine, Sergey; Pastor, Peter; Krizhevsky, Alex; Ibarz, Julian; Quillen, Deirdre (1 квітня 2018). Learning hand-eye coordination for robotic grasping with deep learning and large-scale data collection. The International Journal of Robotics Research (англ.). 37 (4–5): 421—436. doi:10.1177/0278364917710318. ISSN 0278-3649.
- Seurin, Mathieu; Strub, Florian; Preux, Philippe; Pietquin, Olivier (25 жовтня 2020). . Interspeech 2020. ISCA: ISCA: 4323—4327. arXiv:2008.03127. doi:10.21437/interspeech.2020-2892. Архів оригіналу за 12 травня 2021. Процитовано 4 травня 2022.
- https://blog.google/products/gmail/save-time-with-smart-reply-in-gmail/ [ 16 квітня 2022 у Wayback Machine.]
- . Wired (en-us) . ISSN 1059-1028. Архів оригіналу за 27 липня 2021. Процитовано 8 квітня 2021.
- . TechCrunch (амер.). Архів оригіналу за 12 травня 2021. Процитовано 8 квітня 2021.
- . Time. 18 травня 2015. Архів оригіналу за 10 вересня 2016. Процитовано 4 травня 2022.
- (25 квітня 2013). . Wired. Архів оригіналу за 10 лютого 2014. Процитовано 11 лютого 2014.
- Wohlsen, Marcus (27 січня 2014). . Wired. Архів оригіналу за 14 лютого 2014. Процитовано 11 лютого 2014.
- Hernandez, Daniela (7 травня 2013). . Wired. Архів оригіналу за 8 лютого 2014. Процитовано 11 лютого 2014.
- . . 8 грудня 2013. Архів оригіналу за 27 березня 2014. Процитовано 11 лютого 2014.
- . MIT Technology Review (англ.). Архів оригіналу за 25 грудня 2020. Процитовано 8 квітня 2021.
- Bender, Emily M.; Gebru, Timnit; McMillan-Major, Angelina; Shmitchell, Shmargaret (3 березня 2021). On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? 🦜. Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency (англ.). Virtual Event Canada: ACM: 610—623. doi:10.1145/3442188.3445922. ISBN .
- Schiffer, Zoe (19 лютого 2021). . The Verge (англ.). Архів оригіналу за 29 вересня 2021. Процитовано 8 квітня 2021.
- Change, Google Walkout For Real (15 грудня 2020). . Medium (англ.). Архів оригіналу за 7 жовтня 2021. Процитовано 8 квітня 2021.
- Dave, Jeffrey Dastin, Paresh (4 лютого 2021). Two Google engineers resign over firing of AI ethics researcher Timnit Gebru. Reuters (англ.). Процитовано 8 квітня 2021.
Вікіпедія, Українська, Україна, книга, книги, бібліотека, стаття, читати, завантажити, безкоштовно, безкоштовно завантажити, mp3, відео, mp4, 3gp, jpg, jpeg, gif, png, малюнок, музика, пісня, фільм, книга, гра, ігри, мобільний, телефон, android, ios, apple, мобільний телефон, samsung, iphone, xiomi, xiaomi, redmi, honor, oppo, nokia, sonya, mi, ПК, web, Інтернет
Google Brain ce grupa z glibokogo vivchennya shtuchnogo intelektu pid kerivnictvom Google AI doslidnickogo pidrozdilu Google prisvyachenogo shtuchnomu intelektu Stvorena u 2011 roci Google Brain poyednuye vidkriti doslidzhennya mashinnogo navchannya z informacijnimi sistemami ta velikimi obchislyuvalnimi resursami Komanda stvorila taki instrumenti yak TensorFlow yakij nadaye publichnij dostup dlya roboti iz nejronnoyu merezheyu z bezlichchyu vnutrishnih naukovih proektiv u sferi ShI Komanda nacilena na stvorennya doslidnickih mozhlivostej u mashinnomu navchanni ta obrobci prirodnih mov Google Brain Sfera robotimashinne navchannya i gliboke navchannya Nazvano na chestgolovnij mozok ZasnovnikDzheff Din 1 Endryu In i d 1 Chas data pripinennya isnuvannyakviten 2023 U kvitni 2023 roku komanda bula ob yednana z kolishnoyu dochirnoyu kompaniyeyu Google DeepMind IstoriyaTak zvanij proekt Google Brain pochavsya v 2011 roci yak storonnij doslidnij proekt naukovogo spivrobitnika Google Dzheffa Dina doslidnika Google Grega Korrado i profesora Stenfordskogo universitetu Endryu Ina In cikavivsya vikoristannyam metodiv glibokogo navchannya dlya virishennya zavdan shtuchnogo intelektu z 2006 roku a u 2011 roci pochav spivpracyuvati z Dinom i Korrado dlya stvorennya velikomasshtabnoyi sistemi glibokogo navchannya DistBelief poverh infrastrukturi hmarnih obchislen Google Google Brain buv zapushenij yak proekt Google X i stav nastilki uspishnim sho povernuvsya nazad v Google en skazav sho Google Brain okupiv vsyu vartist Google X U chervni 2012 roku New York Times povidomila sho klaster z 16000 komp yuteriv priznachenih dlya imitaciyi deyakih aspektiv diyalnosti mozku lyudini navchivsya rozpiznavati na zobrazhennyah kotiv na osnovi 10 miljoniv cifrovih zobrazhen otrimanih z rolikiv na YouTube Takozh cya istoriya bula visvitlena na National Public Radio i v Smart Planetruen U berezni 2013 roku Google najnyala Dzhefri Gintona providnogo doslidnika v oblasti glibokogo navchannya i pridbala kompaniyu DNNResearch yakoyu keruvav Ginton Ginton skazav sho bude rozpodilyati svij chas mizh doslidzhennyam v universiteti i robotoyu v Google U kvitni 2023 roku Google Brain ob yednalasya z dochirnoyu kompaniyeyu Google DeepMind u ramkah postijnih zusil kompaniyi shodo priskorennya roboti nad ShI Komanda i misce roztashuvannyaSpochatku Google Brain buv stvorenij naukovim spivrobitnikom Google Dzheffom Dinom i zaproshenim zi Stenforda profesorom Endryu Inom U 2014 roci do skladu komandi uvijshli Dzheff Din Kuok Le Illya Suckever Aleks Krizhevskij en ta Vinsent Vanhuke Na 2017 rik chlenami komand ye Aneliya Angelova Semi Bendzho Greg Korrado Dzhordzh Dal Majkl Izard Anzhuli Kannan Ugo Larochelle Kvok Le Kris Ola Vinsent Vanhuke Vidzhej Vasudevan ta en en vidomij tim sho stvoriv movu programuvannya Apple Swift ta zgodom ocholyuvav komandu bezpilotnih avtomobiliv Tesla protyagom shesti misyaciv priyednavsya do komandi Google Brain v serpni 2017 roku Lattner pokinuv komandu v sichni 2020 roku ta priyednavsya do SiFive U 2021 roci Google Brain ocholyuyut Dzheff Din Dzhefri Ginton i en Sered inshih chleniv Ketrin Heller Pi Chuan Chang Yan Sajmon Zhan Filipp Vert Nevena Lazich Aneliya Angelova Lukash Kajzer Keri Dzhun Kaj Erik Brek Ruming Pang Karlos Rikelme Devid Ha Sami Bendzho pokinuv komandu u kvitni 2021 roku koli Zubin Gahramani vzyav na sebe jogo obov yazki Google Research vklyuchaye Google Brain i bazuyetsya v Mauntin V yu Kaliforniya Vin takozh maye grupi v Akkri Amsterdami Atlanti Pekini Berlini Kembridzhi Massachusets Izrayili Los Andzhelesi Londoni Monreali Myunheni Nyu Jorku Parizhi Pittsburzi Prinstoni San Francisko Sietli Tokio Toronto i Cyurihu ProektiSistema shifruvannya stvorena shtuchnim intelektom U zhovtni 2016 roku Google Brain rozrobiv eksperiment shob viznachiti sho nejronni merezhi zdatni navchitisya bezpechnomu simetrichnomu shifruvannyu U comu eksperimenti bulo stvoreno tri nejromerezhi Alisa Bob ta Yeva Dotrimuyuchis ideyi generativnoyi zmagalnoyi merezhi metoyu eksperimentu bulo navchiti Alisu stvoryuvati zashifrovani povidomlennya dlya Boba yake Bob mig bi rozshifruvati ale Yeva ne zmogla b Alisa ta Bob mali perevagu nad Yevoyu oskilki v nih buv klyuch sho vikoristovuyetsya dlya shifruvannya ta deshifruvannya Tim samim Google Brain prodemonstruvav zdatnist nejronnih merezh navchatisya bezpechnomu shifruvannyu Pokrashennya zobrazhen U lyutomu 2017 roku Google Brain znajshli imovirnisnij metod dlya peretvorennya zobrazhen z rozdilnoyu zdatnistyu 8x8 v rozdilnu zdatnist 32x32 Metod zasnovanij na ranishe vidomij jmovirnisnij modeli pixelCNN dlya generuvannya peretvoren pikseliv Zaproponovane programne rishennya vikoristovuye dvi nejronni merezhi dlya aproksimaciyi pikseliv zobrazhen pri peretvorenni Persha merezha vidoma yak merezha pidgotovki angl conditioning network yaka zmenshuye rozmiri zobrazhen z visokoyu rozdilnoyu zdatnistyu do rozmiru 8x8 i namagayetsya stvoriti vidobrazhennya z originalnogo zobrazhennya 8x8 do cih zobrazhen z vishoyu rozdilnoyu zdatnistyu Insha merezha vidoma yak apriorna merezha vikoristovuye vidobrazhennya z poperednoyi merezhi shob dodati bilshe detalej do vihidnogo zobrazhennya Otrimane peretvorene zobrazhennya ce ne te same zobrazhennya u vishij rozdilnij zdatnosti a skorishe ocinka zobrazhennya z rozdilnoyu zdatnistyu 32x32 zroblena na osnovi inshih nayavnih zobrazhen iz visokoyu rozdilnoyu zdatnistyu Rezultati Google Brain vkazuyut na mozhlivist nejronnih merezh pokrashuvati zobrazhennya Perekladach Google Vneskom komandi Google Brain do proektu Google Translate stalo vikoristannya novoyi sistemi glibokogo navchannya yaka poyednuye shtuchni nejronni merezhi z velicheznimi bazami danih bagatomovnih tekstiv U veresni 2016 roku bulo zapusheno Google Neural Machine Translation GNMT naskriznu sistemu navchannya yaka mozhe vchitisya na velikij kilkosti prikladiv Ranishe pidhid Google Translate na osnovi frazovogo mashinnogo perekladu angl Phrase Based Machine Translation PBMT statistichno analizuvav slovo za slovom i namagavsya znajti vidpovidni slova inshimi movami ne vrahovuyuchi navkolishni frazi v rechenni Ale zamist togo shob vibirati zaminu dlya kozhnogo okremogo slova bazhanoyu movoyu GNMT ocinyuye segmenti sliv u konteksti reshti rechennya shob vibrati bilsh tochni zamini U porivnyanni zi starishimi modelyami PBMT model GNMT nabrala 24 pokrashennya shozhosti z perekladom yakij zrobila lyudina pri comu kilkist pomilok zmenshilasya na 60 GNMT takozh prodemonstruvav znachne pokrashennya dlya zazdalegid skladnih perekladiv takih yak pereklad z kitajskoyi movi na anglijsku Hocha zaprovadzhennya GNMT pidvishilo yakist perekladiv Google Translate dlya pilotnih mov bulo duzhe vazhko stvoriti taki pokrashennya dlya vsih jogo 103 mov Virishuyuchi cyu problemu komanda Google Brain Team zmogla rozrobiti bagatomovnu sistemu GNMT yaka rozshirila poperednyu zabezpechivshi perekladi mizh kilkoma movami Krim togo vona dozvolyaye zdijsnyuvati perekladi Zero Shot sho ye perekladami mizh dvoma movami yaki sistema nikoli ranishe yavno ne zustrichala Google ogolosila sho Google Translate teper takozh mozhe perekladati bez transkribuvannya vikoristovuyuchi nejronni merezhi Ce oznachaye sho mozhlivo pereklasti movlennya odniyeyu movoyu bezposeredno v tekst inshoyu movoyu poperedno ne transkribuyuchi yiyi v tekst Za slovami doslidnikiv Google Brain cogo promizhnogo kroku mozhna uniknuti za dopomogoyu nejronnih merezh Shob sistema zasvoyila ce voni oznajomili yiyi z bagatogodinnim audio ispanskoyu movoyu razom iz vidpovidnim anglijskim tekstom Rizni shari nejronnih merezh sho kopiyuyut lyudskij mozok zmogli zv yazati vidpovidni chastini i zgodom manipulyuvati zvukovoyu formoyu poki vona ne bula peretvorena v anglijskij tekst Inshim nedolikom modeli GNMT ye te sho chas perekladu zbilshuyetsya v geometrichnij progresiyi razom iz kilkistyu sliv u rechenni Ce zmusilo komandu Google Brain Team dodati she 2000 procesoriv shob garantuvati sho novij proces perekladu bude shvidkim i nadijnim Robototehnika Pragnuchi pokrashiti tradicijni algoritmi keruvannya robototehnikoyu de novi navichki robota potribno programuvati vruchnu doslidniki z robototehniki z Google Brain rozroblyayut metodi mashinnogo navchannya yaki b dozvolili robotam opanovuvati novi navichki samostijno Voni takozh namagayutsya rozrobiti sposobi obminu informaciyeyu mizh robotami shob roboti mogli vchitisya odin u odnogo pid chas procesu navchannya takozh vidomogo yak en Yak rezultat Google zapustila platformu Google Cloud Robotics Platform dlya rozrobnikiv u 2019 roci namagayuchis ob yednati robototehniku AI ta hmarni tehnologiyi shob zabezpechiti efektivnu avtomatizaciyu spivpraci robotiv yaki pidklyucheni do hmari Robototehnichni doslidzhennya v Google Brain zoseredzheni zdebilshogo na vdoskonalenni ta zastosuvanni algoritmiv glibokogo navchannya yaki b dozvolili robotam vikonuvati zavdannya navchayuchis za dopomogoyu vlasnogo dosvidu modelyuvannya lyudskih demonstracij ta abo vizualnih danih Napriklad doslidniki Google Brain pokazali sho roboti mozhut navchitisya pidijmati ta skladati tverdi ob yekti u yashiki ne buvshi poperedno zaprogramovanim na ce za dopomogoyu provedennya eksperimentiv u specifichnomu seredovishi V inshomu proekti doslidniki natrenuvali robotiv vchitisya takim procesam yak vilivannya ridini z chashki Roboti navchilisya za dopomogoyu pokazu videozapisiv lyudej yaki vikonuyut ce zavdannya zapisanih z riznih tochok zoru Doslidniki Google Brain spivpracyuyut z inshimi kompaniyami ta akademichnimi ustanovami sho doslidzhuyut robototehniku U 2016 roci komanda Google Brain Team spivpracyuvala z doslidnikami z X u doslidzhenni z vivchennya koordinaciyi ruk i ochej dlya robotizovanogo hapannya Yih metod dozvoliv keruvati robotom u realnomu chasi dlya hapannya novih ob yektiv iz samokoriguvannyam U 2020 roci doslidniki z Google Brain Intel AI Lab i UC Berkeley stvorili model shtuchnogo intelektu dlya robotiv yaki vchatsya zavdannyam pov yazanih iz hirurgiyeyu za dopomogoyu video spravzhnih operacij Zokrema yih navchali nakladannyu shviv Interaktivne rozpiznavannya movcya za dopomogoyu navchannya z pidkriplennyam U 2020 roci komanda Google Brain Team ta Lillskogo universitetu predstavili model avtomatichnogo rozpiznavannya movcya yaku voni nazvali Interactive Speaker Recognition ISR Modul ISR rozpiznaye movcya z zadanogo spisku movciv lishe zapituyuchi dekilka sliv specifichnih dlya koristuvacha Model mozhna zminiti shob bula mozhlivist vibrati segmenti movlennya v konteksti navchannya sintezu movlennya Takozh vona mozhe zahistiti dani u vipadku vikoristannya zlovmisnikami generatoriv movlennya TensorFlow TensorFlow ce biblioteka programnogo zabezpechennya z vidkritim vihidnim kodom na bazi Google Brain yaka dozvolyaye bud komu vikoristovuvati mashinne navchannya nadayuchi instrumenti dlya trenuvannya vlasnoyi nejronnoyi merezhi Napriklad cej instrument vikoristovuvavsya dlya zmenshennya kilkosti ruchnoyi praci na fermi po sortuvannyu vrozhayu Dlya cogo bula natrenovana nejronna merezha na nabori zobrazhen poperedno vidsortovanih lyudmi Magenta Magenta ce proekt yakij vikoristovuye Google Brain dlya stvorennya novoyi informaciyi u viglyadi mistectva ta muziki a ne dlya klasifikaciyi ta sortuvannya nayavnih danih TensorFlow bulo onovleno naborom instrumentiv dlya koristuvachiv za dopomogoyu yakih voni mozhut vchiti nejronnu merezhu stvorennyu zobrazhen i muziki Odnak komanda z en viyavila sho ShI ne mozhe doskonalo vidtvoryuvati lyudski namiri v mistectvi podibno do skladnoshiv yaki vinikayut pri perekladi tekstiv Zastosuvannya u medicini Mozhlivosti klasifikaciyi zobrazhen Google Brain vikoristovuyutsya dlya viyavlennya pevnih medichnih zahvoryuvan shlyahom poshuku oznak yaki ye korisnimi dlya rannoyi diagnostiki prote likari mozhut yih ne zauvazhiti Pid chas skriningu na rak molochnoyi zalozi bulo viyavleno sho cej metod na 75 ridshe stavit nevirnij pozitivnij diagnoz nizh likari lyudini yakim potribno bilshe chasu shob pereglyanuti kozhnu fotografiyu Cherez duzhe specifichnu pidgotovku nejronnoyi merezhi dlya vikonannya okremogo zavdannya vona ne mozhe viznachiti inshi hvorobi yaki fahivec legko vpiznaye na fotografiyi Inshi produkti Google Tehnologiya proektiv Google Brain narazi vikoristovuyetsya v inshih produktah Google takih yak sistema rozpiznavannya movlennya operacijnoyi sistemi Android poshuk fotografij u Google Photos rozumna vidpovid u Gmail ta rekomendaciyi video na YouTube ViznannyaGoogle Brain otrimav visvitlennya v Wired Magazine National Public Radio i en Ci statti mistili interv yu z klyuchovimi chlenami komandi Reyem Kurcvejlom ta Endryu Inom i zoseredzheni na poyasnennyah cilej ta zastosuvannyah proektu Diskusiya U grudni 2020 roku specialistka z pitan etiki ShI en zalishila Google Prichinoyu zvilnennya stala yiyi vidmova vidklikati stattyu pid nazvoyu Pro nebezpeku stohastichnih papug chi mozhut movni modeli buti zanadto velikimi U cij statti doslidzhuyutsya potencijni riziki rozvitku shtuchnogo intelektu takogo yak Google Brain zokrema yihnij vpliv na navkolishnye seredovishe uperedzhennya v navchalnih danih ta zdatnist obmanyuvati gromadskist Z prohannyam vidklikati stattyu zvernulasya Megan Kacholiya viceprezident Google Brain Stanom na kviten 2021 roku majzhe 7000 ninishnih abo kolishnih spivrobitnikiv Google i prihilnikiv galuzi pidpisali vidkritij list v yakomu zvinuvachuyut Google u cenzuri doslidzhen ta zasudzhuyut te yak povelasya kompaniyi z Gebru U lyutomu 2021 roku Google zvilniv Margaret Mitchell odnu z kerivnikiv komandi z etiki v galuzi shtuchnogo intelektu U zayavi kompaniyi stverdzhuyetsya sho Mitchell porushila politiku kompaniyi vikoristovuyuchi avtomatizovani instrumenti dlya poshuku pidtrimki dlya Gebru U tomu zh misyaci inzheneri poza komandoyu z etiki pochali zvilnyatisya posilayuchis na nepravomirne zvilnennya Gebru yak prichinu svogo zvilnennya U kvitni 2021 roku spivzasnovnik Google Brain en ogolosiv pro svoyu vidstavku z kompaniyi Popri te sho vin buv menedzherom Gebru Bendzhio ne buv povidomlenij pro yiyi zvilnennya i vin opublikuvav post v Interneti na pidtrimku i neyi i Mitchell Hocha post Bendzhio zoseredzhuvalosya na osobistisnomu zrostanni yak prichini jogo vidhodu anonimni dzherela vkazali Reuters sho negarazdi v komandi z etiki ShI zigrali pevnu rol u jogo mirkuvannyah Div takozhShtuchnij intelekt Zhivopis na osnovi shtuchnogo intelektu Gliboke navchannya en en zapushena Google u spivpraci z NASA i Asociaciyeyu kosmichnih doslidzhen universitetiv Noogenez TensorFlow en en Transformer arhitektura glibokogo navchannya Primitkihttps backchannel com how google is remaking itself as a machine learning first company ada63defcb70 s564p1oum What is Google Brain 2 chervnya 2021 u Wayback Machine GeeksforGeeks 2020 02 06 Retrieved 2021 04 09 Helms Mallory Ault Shaun V Mao Guifen Wang Jin 2018 03 09 An Overview of Google Brain and Its Applications Proceedings of the 2018 International Conference on Big Data and Education ICBDE 18 Honolulu HI USA Association for Computing Machinery 72 75 doi 10 1145 3206157 3206175 ISBN 978 1 4503 6358 7 S2CID 44107806 Peters Jay 20 kvitnya 2023 Google s big AI push will combine Brain and DeepMind into one team The Verge amer Procitovano 21 kvitnya 2023 25 chervnya 2012 How Many Computers to Identify a Cat 16 000 The New York Times Procitovano 11 lyutogo 2014 Jeffrey Dean et al December 2012 Large Scale Distributed Deep Networks 26 sichnya 2016 u Wayback Machine PDF Retrieved 25 October 2015 Conor Dougherty 16 February 2015 Astro Teller Google s Captain of Moonshots on Making Profits at Google X 22 zhovtnya 2015 u Wayback Machine Retrieved 25 October 2015 National Public Radio 26 chervnya 2012 Arhiv originalu za 13 chervnya 2021 Procitovano 11 lyutogo 2014 U of T neural networks start up acquired by Google 8 zhovtnya 2019 u Wayback Machine Press release Toronto ON 12 March 2013 Retrieved 13 March 2013 Brain Team Google Research 2 zhovtnya 2021 u Wayback Machine Google Research Retrieved 2021 04 08 Etherington Darrell Aug 14 2017 Swift creator Chris Lattner joins Google Brain after Tesla Autopilot stint 19 serpnya 2021 u Wayback Machine TechCrunch Retrieved 11 October 2017 Former Google and Tesla Engineer Chris Lattner to Lead SiFive Platform Engineering Team 3 chervnya 2021 u Wayback Machine www businesswire com 2020 01 27 Retrieved 2021 04 09 Dave Jeffrey Dastin Paresh 7 kvitnya 2021 Reuters angl Arhiv originalu za 2 chervnya 2021 Procitovano 8 kvitnya 2021 Build for Everyone Google Careers 5 zhovtnya 2021 u Wayback Machine careers google com Retrieved 2021 04 08 Zhu Y Vargas D V Sakurai K November 2018 Neural Cryptography Based on the Topology Evolving Neural Networks 2 chervnya 2021 u Wayback Machine 2018 Sixth International Symposium on Computing and Networking Workshops CANDARW 472 478 doi 10 1109 CANDARW 2018 00091 ISBN 978 1 5386 9184 7 S2CID 57192497 Abadi Martin Andersen David G 2016 Learning to Protect Communications with Adversarial Neural Cryptography arXiv 1610 06918 Bibcode 2016arXiv161006918A Dahl Ryan Norouzi Mohammad Shlens Jonathon 2017 Pixel Recursive Super Resolution arXiv 1702 00783 Bibcode 2017arXiv170200783D arstechnica co uk 7 lyutogo 2017 Arhiv originalu za 13 lipnya 2021 Procitovano 15 travnya 2017 Bulat Adrian Yang Jing Tzimiropoulos Georgios 2018 Computer Vision ECCV 2018 Cham Springer International Publishing 187 202 arXiv 1807 11458 doi 10 1007 978 3 030 01231 1 12 ISBN 978 3 030 01230 4 arhiv originalu za 26 grudnya 2021 procitovano 9 kvitnya 2021 Oord Aaron Van Kalchbrenner Nal Kavukcuoglu Koray 11 chervnya 2016 International Conference on Machine Learning angl PMLR 1747 1756 arXiv 1601 06759 Arhiv originalu za 1 zhovtnya 2021 Procitovano 4 travnya 2022 engadget com Arhiv originalu za 2 travnya 2021 Procitovano 15 travnya 2017 cnet com Arhiv originalu za 5 veresnya 2021 Procitovano 15 travnya 2017 Castelvecchi Davide 2016 Nature News angl doi 10 1038 nature 2016 20696 Arhiv originalu za 8 listopada 2020 Procitovano 4 travnya 2022 Lewis Kraus Gideon 14 grudnya 2016 The New York Times amer ISSN 0362 4331 Arhiv originalu za 5 travnya 2017 Procitovano 8 kvitnya 2021 Johnson Melvin Schuster Mike Le Quoc V Krikun Maxim Wu Yonghui Chen Zhifeng Thorat Nikhil Viegas Fernanda Wattenberg Martin 1 zhovtnya 2017 Google s Multilingual Neural Machine Translation System Enabling Zero Shot Translation Transactions of the Association for Computational Linguistics 5 339 351 doi 10 1162 tacl a 00065 ISSN 2307 387X Reynolds Matt New Scientist Arhiv originalu za 18 kvitnya 2021 Procitovano 15 travnya 2017 Metz Cade Dawson Brian Felling Meg 26 bereznya 2019 The New York Times amer ISSN 0362 4331 Arhiv originalu za 16 veresnya 2021 Procitovano 8 kvitnya 2021 The Robot Report amer 24 zhovtnya 2018 Arhiv originalu za 26 serpnya 2021 Procitovano 8 kvitnya 2021 Zeng A Song S Lee J Rodriguez A Funkhouser T August 2020 TossingBot Learning to Throw Arbitrary Objects With Residual Physics IEEE Transactions on Robotics 36 4 1307 1319 doi 10 1109 TRO 2020 2988642 ISSN 1941 0468 Gu S Holly E Lillicrap T Levine S May 2017 2017 IEEE International Conference on Robotics and Automation ICRA 3389 3396 arXiv 1610 00633 doi 10 1109 ICRA 2017 7989385 ISBN 978 1 5090 4633 1 Arhiv originalu za 13 travnya 2021 Procitovano 4 travnya 2022 Sermanet P Lynch C Chebotar Y Hsu J Jang E Schaal S Levine S Brain G May 2018 2018 IEEE International Conference on Robotics and Automation ICRA 1134 1141 arXiv 1704 06888 doi 10 1109 ICRA 2018 8462891 ISBN 978 1 5386 3081 5 Arhiv originalu za 4 travnya 2021 Procitovano 4 travnya 2022 Tanwani A K Sermanet P Yan A Anand R Phielipp M Goldberg K May 2020 2020 IEEE International Conference on Robotics and Automation ICRA 2174 2181 arXiv 2006 00545 doi 10 1109 ICRA40945 2020 9197324 ISBN 978 1 7281 7395 5 Arhiv originalu za 4 travnya 2021 Procitovano 4 travnya 2022 Levine Sergey Pastor Peter Krizhevsky Alex Ibarz Julian Quillen Deirdre 1 kvitnya 2018 Learning hand eye coordination for robotic grasping with deep learning and large scale data collection The International Journal of Robotics Research angl 37 4 5 421 436 doi 10 1177 0278364917710318 ISSN 0278 3649 Seurin Mathieu Strub Florian Preux Philippe Pietquin Olivier 25 zhovtnya 2020 Interspeech 2020 ISCA ISCA 4323 4327 arXiv 2008 03127 doi 10 21437 interspeech 2020 2892 Arhiv originalu za 12 travnya 2021 Procitovano 4 travnya 2022 https blog google products gmail save time with smart reply in gmail 16 kvitnya 2022 u Wayback Machine Wired en us ISSN 1059 1028 Arhiv originalu za 27 lipnya 2021 Procitovano 8 kvitnya 2021 TechCrunch amer Arhiv originalu za 12 travnya 2021 Procitovano 8 kvitnya 2021 Time 18 travnya 2015 Arhiv originalu za 10 veresnya 2016 Procitovano 4 travnya 2022 25 kvitnya 2013 Wired Arhiv originalu za 10 lyutogo 2014 Procitovano 11 lyutogo 2014 Wohlsen Marcus 27 sichnya 2014 Wired Arhiv originalu za 14 lyutogo 2014 Procitovano 11 lyutogo 2014 Hernandez Daniela 7 travnya 2013 Wired Arhiv originalu za 8 lyutogo 2014 Procitovano 11 lyutogo 2014 8 grudnya 2013 Arhiv originalu za 27 bereznya 2014 Procitovano 11 lyutogo 2014 MIT Technology Review angl Arhiv originalu za 25 grudnya 2020 Procitovano 8 kvitnya 2021 Bender Emily M Gebru Timnit McMillan Major Angelina Shmitchell Shmargaret 3 bereznya 2021 On the Dangers of Stochastic Parrots Can Language Models Be Too Big Proceedings of the 2021 ACM Conference on Fairness Accountability and Transparency angl Virtual Event Canada ACM 610 623 doi 10 1145 3442188 3445922 ISBN 978 1 4503 8309 7 Schiffer Zoe 19 lyutogo 2021 The Verge angl Arhiv originalu za 29 veresnya 2021 Procitovano 8 kvitnya 2021 Change Google Walkout For Real 15 grudnya 2020 Medium angl Arhiv originalu za 7 zhovtnya 2021 Procitovano 8 kvitnya 2021 Dave Jeffrey Dastin Paresh 4 lyutogo 2021 Two Google engineers resign over firing of AI ethics researcher Timnit Gebru Reuters angl Procitovano 8 kvitnya 2021