Поро́джувальний попере́дньо трено́ваний трансфо́рмер 3 (англ. Generative Pre-trained Transformer 3, GPT-3) — це авторегресійна модель мови, яка використовує глибоке навчання, щоби виробляти текст, подібний до людського. Вона є мовною передбачувальною моделлю третього покоління в серії GPT-n, створеній OpenAI, лабораторією досліджень штучного інтелекту в Сан-Франциско. Повна версія GPT-3 має ємність у 175 мільярдів параметрів машинного навчання. GPT-3, яку було представлено в травні 2020 року і яка перебуває в бета-тестуванні станом на липень 2020 року, є частиною тенденції попереднього тренування представлень мови в системах обробки природної мови (ОПМ). Перед випуском GPT-3 найбільшою мовною моделлю була Turing NLG Microsoft, представлена в лютому 2020 року, з ємністю в 17 мільярдів параметрів, або менш ніж 10 % у порівнянні з GPT-3.
Тип | Авторегресійна модель трансформерна модель мови |
---|---|
Автор | OpenAI |
Розробник | OpenAI |
Перший випуск | 11 червня 2020 року (бета) |
Версії | 175B |
Ліцензія | Код не доступний, доступна лише через платний ППІ |
Репозиторій | github.com/openai/gpt-3 |
Вебсайт | openai.com/blog/openai-api |
|
Якість тексту, породжуваного GPT-3, є настільки високою, що його складно відрізнити від тексту, написаного людиною, що несе як переваги, так і ризики. Оригінальну працю 28 травня 2020 року, яка представила GPT-3, презентували тридцять один дослідник та інженер OpenAI. У своїй праці вони попередили про небезпеки потенціалу GPT-3, й закликали провести дослідження з метою зниження ризику.Девід Чалмерс, австралійський філософ, описав GPT-3 як «одну із найцікавіших та найважливіших систем ШІ з будь-коли зроблених».
22 вересня 2020 року Microsoft оголосила, що отримала ліцензію на «ексклюзивне» використання GPT-3; інші все ще можуть використовувати цей загальнодоступний ППІ для отримування виходу, але лише Microsoft має контроль над первинним кодом.
Передісторія
Згідно журналу «Економіст», вдосконалені алгоритми, потужні комп'ютери, та збільшення оцифрованих даних спричинили революцію у машинному навчанні, завдяки чому нові методики призвели 2010 року до «швидкого вдосконалення в задачах», включно з маніпулюванням мовою. Програмні моделі тренуються навчатися, використовуючи тисячі або мільйони зразків у «структурі, … що в загальних рисах ґрунтується на нейронній архітектурі мозку». Однією з архітектур, які використовують в обробці природної мови (ОПМ), є нейронна мережа, що ґрунтується на моделі глибокого навчання, вперше представлена 2017 року —Трансформер. Моделі GPT-n ґрунтуються на цій нейромережній архітектурі глибокого навчання на основі Трансформера. Існує низка систем ОПМ, здатних оброблювати, видобувати, впорядковувати, з'єднувати, протиставляти, розуміти, та породжувати відповіді на питання.
11 червня 2018 року дослідники та інженери OpenAI опублікувати свою оригінальну працю про породжувальні моделі — мовні моделі — системи штучного інтелекту — які може бути попередньо треновано величезним та різноманітним корпусом тексту через набори даних, у процесі, який вони назвали (англ. generative pre-training, GP). Ці автори описали, як в GPT-n було покращено продуктивності розуміння мови в обробці природної мови (ОПМ) за допомогою процесу «породжувального попереднього тренування моделі мови на різноманітнім корпусі неміченого тексту, з подальшим розрізнювальним тонким налаштуванням на для кожної конкретної задачі». Це усунуло потребу в людському керуванні та тривалому міченні вручну.
В лютому 2020 року Microsoft представила своє Тюрінгове породжування природної мови (англ. Turing Natural Language Generation, T-NLG), що було на той момент «найбільшою моделлю мови з будь-коли опублікованих, із 17 мільярдами параметрів». Вона працювала краще за будь-яку іншу модель мови на різноманітних задачах, до яких належали автоматизоване реферування та відповідання на питання.
Можливості
Сигнальний примірник arXiv 28 травня 2020 року від групи з 31 інженера та дослідника OpenAI описав розробку GPT-3, «моделі мови найвищого рівня» третього покоління. Ця команда збільшила ємність GPT-3 на понад два порядки відносно її попередниці, GPT-2, зробивши GPT-3 найбільшою нерозрідженою[] моделлю мови на той момент. Вище число параметрів GPT-3 дає їй вищий рівень точності відносно попередніх версій із меншою ємністю. Ємність GPT-3 є в десять разів більшою за Тюрінгове ППМ Microsoft.
Шістдесят відсотків зваженого набору даних попереднього тренування GPT-3 походить із відфільтрованої версії [en], що складається з 410 мільярдів [en] лексем . Іншими джерелами є 19 мільярдів лексем з WebText2, що представляють 22 % зваженого загального, 12 мільярдів лексем з Books1, що представляють 8 %, 55 мільярдів лексем з Books2, що представляють 8 %, та 3 мільярди лексем із Вікіпедії, що представляють 3 % . GPT-3 треновано на сотнях мільярдів слів, і вона здатна, серед іншого, писати код мовами CSS, JSX та Python. Оскільки тренувальні дані GPT-3 були всеосяжними, вона не вимагає подальшого тренування для окремих мовних задач.
11 червня 2020 року OpenAI оголосила, що користувачі можуть робити запити на доступ до їхнього дружнього ППІ GPT-3 — «набору інструментів машинного навчання» (англ. «machine learning toolset») — щоби допомогти OpenAI «дослідити сильні сторони та межі» цієї нової технології. Це запрошення описувало, що цей ППІ мав інтерфейс загального призначення «текст на вході, текст на виході», що може виконувати майже «будь-яку задачу для англійської мови», замість звичного єдиного сценарію використання. Згідно з одним користувачем, який мав доступ до приватного раннього випуску ППІ GPT-3 OpenAI, GPT-3 була «моторошно доброю» в написанні «напрочуд зв'язного тексту», маючи лише декілька простих підказок.
Оскільки GPT-3 може «породжувати новинні статті, які оцінювачам-людям складно відрізнити від статей, написаних людьми», GPT-3 має «потенціал створити прогрес як у корисних, так і в шкідливих застосуваннях моделей мови».спам, фішинг, [en], написання [en] та соціально-інженерний претекстинг». Автори привернули увагу до цих небезпек, щоби закликати до дослідження стосовно зниження ризику.
У своїй праці від 28 травня 2020 року дослідники описали в деталях потенційні «шкідливі впливи GPT-3», до яких належать «дезінформація,Огляди
У своєму огляді 29 липня 2020 року в «Нью-Йорк таймс» [en] сказав, що GPT-3, яка може породжувати комп'ютерний код та поезію, так само як і прозу, є не просто «дивовижною», «моторошною» та «принижувальною», але й також «більш ніж трохи жахальною».
«Дейлі Ноус» представив низку статей про GPT-3 від дев'яти філософів. Австралійський філософ Девід Чалмерс описав GPT-3 як «одну із найцікавіших та найважливіших систем ШІ з будь-коли зроблених».
В огляді у «Wired» сказано, що GPT-3 «викликала озноб по всій Кремнієвій долині».
У статті в «Towards Data Science» зазначено, що GPT-3 треновано на сотнях мільярдів слів, і що вона здатна писати код мовами CSS, JSX, Python, та іншими.
У [en] сказано, що GPT-3 є «вражаючим кроком у масштабнішому процесі», і що OpenAI та інші перебувають у пошуку «корисних застосувань для всієї цієї потужності», в той же час продовжуючи «працювати в напрямку сильнішого інтелекту».
У статті в «MIT Technology Review», написаній у співавторстві з критиком глибокого навчання [en], зазначено стосовно GPT-3, що її «розуміння світу є часто дуже бідним, що означає, що ви ніколи не можете насправді довіряти тому, що вона каже». Згідно цих авторів, GPT-3 моделює взаємозв'язки між словами, не маючи розуміння значення, що стоїть за кожним словом.
Джером Пезенті, голова лабораторії Facebook A.I., сказав, що GPT-3 є «не безпечною», вказавши на сексистські, расистські та інші упередження й негативний тон, породжувані цією системою, коли її просили обговорити євреїв, жінок, чорношкірих та Голокост.
Застосування
- GPT-3 використано [en] для AI Writer [ 31 жовтня 2020 у Wayback Machine.], який дозволяє людям листуватися з історичними діячами електронною поштою.
- GPT-3 використано [en] в стилізованім під ретро проєкті чатботу, названім «Project December» («Проєкт Грудень»), що є доступним онлайн і дозволяє користувачам спілкуватися з декількома ШІ за допомогою технології GPT-3.
- GPT-3 використано «Ґардіан» для написання статті про те, що ШІ є нешкідливим для людей. Їй згодовано декілька ідей, і вона виробила вісім різних есе, які в підсумку об'єднано в одну статтю.
- GPT-3 використовують у AI Dungeon (Темниця ШІ), що породжує текстові пригодницькі ігри.
- GPT-3 використовується для написання текстів та інших маркетингових матеріалів стартапами Copy.ai, Jasper.ai,, TextCortex AI та Hypotenuse AI.
Виноски
- Brown, Tom B.; Mann, Benjamin; Ryder, Nick; Subbiah, Melanie; Kaplan, Jared; Dhariwal, Prafulla; Neelakantan, Arvind; Shyam, Pranav; Sastry, Girish; Askell, Amanda; Agarwal, Sandhini; Herbert-Voss, Ariel; Krueger, Gretchen; Henighan, Tom; Child, Rewon; Ramesh, Aditya; Ziegler, Daniel M.; Wu, Jeffrey; Winter, Clemens; Hesse, Christopher; Chen, Mark; Sigler, Eric; Litwin, Mateusz; Gray, Scott; Chess, Benjamin; Clark, Jack; Berner, Christopher; McCandlish, Sam; Radford, Alec; Sutskever, Ilya; Amodei, Dario
Примітки
- Brown, Tom B.; Mann, Benjamin; Ryder, Nick; Subbiah, Melanie; Kaplan, Jared; Dhariwal, Prafulla; Neelakantan, Arvind; Shyam, Pranav; Sastry, Girish; Askell, Amanda; Agarwal, Sandhini; Herbert-Voss, Ariel; Krueger, Gretchen; Henighan, Tom; Child, Rewon; Ramesh, Aditya; Ziegler, Daniel M.; Wu, Jeffrey; Winter, Clemens; Hesse, Christopher; Chen, Mark; Sigler, Eric; Litwin, Mateusz; Gray, Scott; Chess, Benjamin; Clark, Jack; Berner, Christopher; McCandlish, Sam; Radford, Alec; Sutskever, Ilya; Amodei, Dario (22 липня 2020). Language Models are Few-Shot Learners. arXiv:2005.14165.
{{}}
: Проігноровано невідомий параметр|url=
() (англ.) - Sutskever I., Neelakantan A., Radford A. et al. Language Models are Few-Shot Learners // ArXiv.org — 2020. — 75 p. — ISSN 2331-8422 — doi:10.48550/ARXIV.2005.14165 — arXiv:2005.14165
- https://www.makeuseof.com/gpt-models-explained-and-compared
- Shead, Sam (23 липня 2020). . CNBC. Архів оригіналу за 30 липня 2020. Процитовано 31 липня 2020. (англ.) Між 28 травня та 22 липня 2020 року випущено чотири сигнальні примірники.
- Bussler, Frederik (21 липня 2020). . Towards Data Science. Архів оригіналу за 19 серпня 2020. Процитовано 1 серпня 2020. (англ.)
- Sagar, Ram (3 червня 2020). . Analytics India Magazine. Архів оригіналу за 4 серпня 2020. Процитовано 31 липня 2020. (англ.)
- Chalmers, David (30 липня 2020). Weinberg, Justin (ред.). . Daily Nous. Philosophers On GPT-3 (updated with replies by GPT-3). Архів оригіналу за 4 серпня 2020. Процитовано 4 серпня 2020. (англ.)
- Hao, Karen (23 вересня 2020). . MIT Technology Review (англ.). Архів оригіналу за 5 лютого 2021. Процитовано 25 вересня 2020.
Компанії заявляють, що OpenAI продовжуватиме пропонувати свій публічний ППІ, що дозволяє обраним користувачам надсилати текст до GPT-3 або інших моделей OpenAI та отримувати їхній вихід. Проте лише Microsoft матиме доступ до коду, що лежить в основі GTP-3, що дозволяє їм вбудовувати, перепрофільовувати та змінювати модель, як їм заманеться.
(англ.) - . The Economist. 11 червня 2020. ISSN 0013-0613. Архів оригіналу за 31 липня 2020. Процитовано 31 липня 2020. (англ.)
- Polosukhin, Illia; Kaiser, Lukasz; Gomez, Aidan N.; Jones, Llion; Uszkoreit, Jakob; Parmar, Niki; Shazeer, Noam; Vaswani, Ashish (12 червня 2017). Attention Is All You Need. arXiv:1706.03762 [cs.CL]. (англ.)
- . Архів оригіналу за 22 серпня 2020. Процитовано 31 липня 2020. (англ.)
- Radford, Alec; Narasimhan, Karthik; Salimans, Tim; Sutskever, Ilya (11 червня 2018). (PDF). с. 12. Архів оригіналу (PDF) за 5 лютого 2021. Процитовано 31 липня 2020. (англ.)
- Sterling, Bruce (13 лютого 2020). . Wired. ISSN 1059-1028. Архів оригіналу за 4 листопада 2020. Процитовано 31 липня 2020. (англ.)
- (PDF). Архів оригіналу (PDF) за 12 грудня 2019. Процитовано 4 грудня 2019.
GPT-2, is a 1.5B parameter Transformer
(англ.) - Ray, Tiernan (1 червня 2020). . ZDNet. Архів оригіналу за 1 червня 2020. Процитовано 31 липня 2020. (англ.)
- . OpenAI. 11 червня 2020. Архів оригіналу за 11 червня 2020. Процитовано 30 жовтня 2020. (англ.)
- . TechCrunch. 11 червня 2020. Архів оригіналу за 12 червня 2020. Процитовано 31 липня 2020.
Якщо ви коли-небудь хотіли спробувати хвалений набір інструментів машинного навчання OpenAI, то це стало набагато простішим. Ця компанія випустила ППІ, що дає можливість розробникам робити виклики її інструментів ШІ у „практично будь-якій задачі для англійської мови“.
(англ.) - Arram (9 липня 2020). . Arram Sabeti. Архів оригіналу за 20 липня 2020. Процитовано 31 липня 2020. (англ.)
- Manjoo, Farhad (29 липня 2020). . The New York Times. ISSN 0362-4331. Архів оригіналу за 29 жовтня 2020. Процитовано 4 серпня 2020. (англ.)
- Weinberg, Justin, ред. (30 липня 2020). . Daily Nous. Архів оригіналу за 30 жовтня 2020. Процитовано 31 липня 2020. (англ.)
- Simonite, Tom (22 липня 2020). . Wired. ISSN 1059-1028. Архів оригіналу за 1 листопада 2020. Процитовано 31 липня 2020. (англ.)
- Claypoole, Theodore (30 липня 2020). . [en]. Т. 10, № 214. Архів оригіналу за 30 жовтня 2020. Процитовано 4 серпня 2020.
{{}}
: Cite має пустий невідомий параметр:|7=
() (англ.) - Marcus, Gary (1 грудня 2018). . Medium (англ.). Архів оригіналу за 1 серпня 2019. Процитовано 29 вересня 2020. (англ.)
- Marcus, Gary; Davis, Ernest (22 серпня 2020). . MIT Technology Review. Архів оригіналу за 23 серпня 2020. Процитовано 23 серпня 2020. (англ.)
- Metz, Cade (24 листопада 2020). . The New York Times (амер.). ISSN 0362-4331. Архів оригіналу за 6 грудня 2020. Процитовано 24 листопада 2020. (англ.)
- GPT-3 (8 вересня 2020). . The Guardian (брит.). ISSN 0261-3077. Архів оригіналу за 4 лютого 2021. Процитовано 15 вересня 2020. (англ.)
- Writing helper Copy.ai raises $2.9M in a round led by Craft Ventures. copy.ai. 17 березня 2021. Процитовано 5 листопада 2022.
- Dzieza, Josh (20 липня 2022). Can AI write good novels?. The Verge. Процитовано 23 грудня 2022.
- Democratizing Written Communication - TextCortex Raises $1.2 Million Pre-Seed To Advance Proprietary NLG Capabilities And Launch Chrome Extension. TextCortex AI (амер.). 21 червня 2022. Процитовано 14 лютого 2023.
- Lomas, Natasha (7 серпня 2020). Hypotenuse AI wants to take the strain out of copywriting for e-commerce. TechCrunch (амер.). Процитовано 5 січня 2023.
Посилання
Вікіпедія, Українська, Україна, книга, книги, бібліотека, стаття, читати, завантажити, безкоштовно, безкоштовно завантажити, mp3, відео, mp4, 3gp, jpg, jpeg, gif, png, малюнок, музика, пісня, фільм, книга, гра, ігри, мобільний, телефон, android, ios, apple, мобільний телефон, samsung, iphone, xiomi, xiaomi, redmi, honor, oppo, nokia, sonya, mi, ПК, web, Інтернет
Poro dzhuvalnij popere dno treno vanij transfo rmer 3 angl Generative Pre trained Transformer 3 GPT 3 ce avtoregresijna model movi yaka vikoristovuye gliboke navchannya shobi viroblyati tekst podibnij do lyudskogo Vona ye movnoyu peredbachuvalnoyu modellyu tretogo pokolinnya v seriyi GPT n stvorenij OpenAI laboratoriyeyu doslidzhen shtuchnogo intelektu v San Francisko Povna versiya GPT 3 maye yemnist u 175 milyardiv parametriv mashinnogo navchannya GPT 3 yaku bulo predstavleno v travni 2020 roku i yaka perebuvaye v beta testuvanni stanom na lipen 2020 roku ye chastinoyu tendenciyi poperednogo trenuvannya predstavlen movi v sistemah obrobki prirodnoyi movi OPM Pered vipuskom GPT 3 najbilshoyu movnoyu modellyu bula Turing NLG Microsoft predstavlena v lyutomu 2020 roku z yemnistyu v 17 milyardiv parametriv abo mensh nizh 10 u porivnyanni z GPT 3 Porodzhuvalnij poperedno trenovanij transformer Generative Pre trained Transformer 3 GPT 3 Tip Avtoregresijna model transformerna model moviAvtor OpenAIRozrobnik OpenAIPershij vipusk 11 chervnya 2020 roku beta Versiyi 175BLicenziya Kod ne dostupnij dostupna lishe cherez platnij PPIRepozitorij github com openai gpt 3Vebsajt openai com blog openai api Mediafajli u Vikishovishi Yakist tekstu porodzhuvanogo GPT 3 ye nastilki visokoyu sho jogo skladno vidrizniti vid tekstu napisanogo lyudinoyu sho nese yak perevagi tak i riziki Originalnu pracyu 28 travnya 2020 roku yaka predstavila GPT 3 prezentuvali tridcyat odin doslidnik ta inzhener OpenAI U svoyij praci voni poperedili pro nebezpeki potencialu GPT 3 j zaklikali provesti doslidzhennya z metoyu znizhennya riziku 34 Devid Chalmers avstralijskij filosof opisav GPT 3 yak odnu iz najcikavishih ta najvazhlivishih sistem ShI z bud koli zroblenih 22 veresnya 2020 roku Microsoft ogolosila sho otrimala licenziyu na eksklyuzivne vikoristannya GPT 3 inshi vse she mozhut vikoristovuvati cej zagalnodostupnij PPI dlya otrimuvannya vihodu ale lishe Microsoft maye kontrol nad pervinnim kodom PeredistoriyaZgidno zhurnalu Ekonomist vdoskonaleni algoritmi potuzhni komp yuteri ta zbilshennya ocifrovanih danih sprichinili revolyuciyu u mashinnomu navchanni zavdyaki chomu novi metodiki prizveli 2010 roku do shvidkogo vdoskonalennya v zadachah vklyuchno z manipulyuvannyam movoyu Programni modeli trenuyutsya navchatisya vikoristovuyuchi tisyachi abo miljoni zrazkiv u strukturi sho v zagalnih risah gruntuyetsya na nejronnij arhitekturi mozku Odniyeyu z arhitektur yaki vikoristovuyut v obrobci prirodnoyi movi OPM ye nejronna merezha sho gruntuyetsya na modeli glibokogo navchannya vpershe predstavlena 2017 roku Transformer Modeli GPT n gruntuyutsya na cij nejromerezhnij arhitekturi glibokogo navchannya na osnovi Transformera Isnuye nizka sistem OPM zdatnih obroblyuvati vidobuvati vporyadkovuvati z yednuvati protistavlyati rozumiti ta porodzhuvati vidpovidi na pitannya 11 chervnya 2018 roku doslidniki ta inzheneri OpenAI opublikuvati svoyu originalnu pracyu pro porodzhuvalni modeli movni modeli sistemi shtuchnogo intelektu yaki mozhe buti poperedno trenovano velicheznim ta riznomanitnim korpusom tekstu cherez nabori danih u procesi yakij voni nazvali angl generative pre training GP Ci avtori opisali yak v GPT n bulo pokrasheno produktivnosti rozuminnya movi v obrobci prirodnoyi movi OPM za dopomogoyu procesu porodzhuvalnogo poperednogo trenuvannya modeli movi na riznomanitnim korpusi nemichenogo tekstu z podalshim rozriznyuvalnim tonkim nalashtuvannyam na dlya kozhnoyi konkretnoyi zadachi Ce usunulo potrebu v lyudskomu keruvanni ta trivalomu michenni vruchnu V lyutomu 2020 roku Microsoft predstavila svoye Tyuringove porodzhuvannya prirodnoyi movi angl Turing Natural Language Generation T NLG sho bulo na toj moment najbilshoyu modellyu movi z bud koli opublikovanih iz 17 milyardami parametriv Vona pracyuvala krashe za bud yaku inshu model movi na riznomanitnih zadachah do yakih nalezhali avtomatizovane referuvannya ta vidpovidannya na pitannya MozhlivostiSignalnij primirnik arXiv 28 travnya 2020 roku vid grupi z 31 inzhenera ta doslidnika OpenAI opisav rozrobku GPT 3 modeli movi najvishogo rivnya tretogo pokolinnya Cya komanda zbilshila yemnist GPT 3 na ponad dva poryadki vidnosno yiyi poperednici GPT 2 zrobivshi GPT 3 najbilshoyu nerozridzhenoyu proyasniti modellyu movi na toj moment 14 Vishe chislo parametriv GPT 3 daye yij vishij riven tochnosti vidnosno poperednih versij iz menshoyu yemnistyu Yemnist GPT 3 ye v desyat raziv bilshoyu za Tyuringove PPM Microsoft Shistdesyat vidsotkiv zvazhenogo naboru danih poperednogo trenuvannya GPT 3 pohodit iz vidfiltrovanoyi versiyi en sho skladayetsya z 410 milyardiv en leksem 9 Inshimi dzherelami ye 19 milyardiv leksem z WebText2 sho predstavlyayut 22 zvazhenogo zagalnogo 12 milyardiv leksem z Books1 sho predstavlyayut 8 55 milyardiv leksem z Books2 sho predstavlyayut 8 ta 3 milyardi leksem iz Vikipediyi sho predstavlyayut 3 9 GPT 3 trenovano na sotnyah milyardiv sliv i vona zdatna sered inshogo pisati kod movami CSS JSX ta Python Oskilki trenuvalni dani GPT 3 buli vseosyazhnimi vona ne vimagaye podalshogo trenuvannya dlya okremih movnih zadach 11 chervnya 2020 roku OpenAI ogolosila sho koristuvachi mozhut robiti zapiti na dostup do yihnogo druzhnogo PPI GPT 3 naboru instrumentiv mashinnogo navchannya angl machine learning toolset shobi dopomogti OpenAI dosliditi silni storoni ta mezhi ciyeyi novoyi tehnologiyi Ce zaproshennya opisuvalo sho cej PPI mav interfejs zagalnogo priznachennya tekst na vhodi tekst na vihodi sho mozhe vikonuvati majzhe bud yaku zadachu dlya anglijskoyi movi zamist zvichnogo yedinogo scenariyu vikoristannya Zgidno z odnim koristuvachem yakij mav dostup do privatnogo rannogo vipusku PPI GPT 3 OpenAI GPT 3 bula motoroshno dobroyu v napisanni naprochud zv yaznogo tekstu mayuchi lishe dekilka prostih pidkazok Oskilki GPT 3 mozhe porodzhuvati novinni statti yaki ocinyuvacham lyudyam skladno vidrizniti vid statej napisanih lyudmi GPT 3 maye potencial stvoriti progres yak u korisnih tak i v shkidlivih zastosuvannyah modelej movi 34 U svoyij praci vid 28 travnya 2020 roku doslidniki opisali v detalyah potencijni shkidlivi vplivi GPT 3 do yakih nalezhat dezinformaciya spam fishing en napisannya en ta socialno inzhenernij preteksting Avtori privernuli uvagu do cih nebezpek shobi zaklikati do doslidzhennya stosovno znizhennya riziku 34OglyadiU svoyemu oglyadi 29 lipnya 2020 roku v Nyu Jork tajms en skazav sho GPT 3 yaka mozhe porodzhuvati komp yuternij kod ta poeziyu tak samo yak i prozu ye ne prosto divovizhnoyu motoroshnoyu ta prinizhuvalnoyu ale j takozh bilsh nizh trohi zhahalnoyu Dejli Nous predstaviv nizku statej pro GPT 3 vid dev yati filosofiv Avstralijskij filosof Devid Chalmers opisav GPT 3 yak odnu iz najcikavishih ta najvazhlivishih sistem ShI z bud koli zroblenih V oglyadi u Wired skazano sho GPT 3 viklikala oznob po vsij Kremniyevij dolini U statti v Towards Data Science zaznacheno sho GPT 3 trenovano na sotnyah milyardiv sliv i sho vona zdatna pisati kod movami CSS JSX Python ta inshimi U en skazano sho GPT 3 ye vrazhayuchim krokom u masshtabnishomu procesi i sho OpenAI ta inshi perebuvayut u poshuku korisnih zastosuvan dlya vsiyeyi ciyeyi potuzhnosti v toj zhe chas prodovzhuyuchi pracyuvati v napryamku silnishogo intelektu U statti v MIT Technology Review napisanij u spivavtorstvi z kritikom glibokogo navchannya en zaznacheno stosovno GPT 3 sho yiyi rozuminnya svitu ye chasto duzhe bidnim sho oznachaye sho vi nikoli ne mozhete naspravdi doviryati tomu sho vona kazhe Zgidno cih avtoriv GPT 3 modelyuye vzayemozv yazki mizh slovami ne mayuchi rozuminnya znachennya sho stoyit za kozhnim slovom Dzherom Pezenti golova laboratoriyi Facebook A I skazav sho GPT 3 ye ne bezpechnoyu vkazavshi na seksistski rasistski ta inshi uperedzhennya j negativnij ton porodzhuvani ciyeyu sistemoyu koli yiyi prosili obgovoriti yevreyiv zhinok chornoshkirih ta Golokost ZastosuvannyaGPT 3 vikoristano en dlya AI Writer 31 zhovtnya 2020 u Wayback Machine yakij dozvolyaye lyudyam listuvatisya z istorichnimi diyachami elektronnoyu poshtoyu GPT 3 vikoristano en v stilizovanim pid retro proyekti chatbotu nazvanim Project December Proyekt Gruden sho ye dostupnim onlajn i dozvolyaye koristuvacham spilkuvatisya z dekilkoma ShI za dopomogoyu tehnologiyi GPT 3 GPT 3 vikoristano Gardian dlya napisannya statti pro te sho ShI ye neshkidlivim dlya lyudej Yij zgodovano dekilka idej i vona virobila visim riznih ese yaki v pidsumku ob yednano v odnu stattyu GPT 3 vikoristovuyut u AI Dungeon Temnicya ShI sho porodzhuye tekstovi prigodnicki igri GPT 3 vikoristovuyetsya dlya napisannya tekstiv ta inshih marketingovih materialiv startapami Copy ai Jasper ai TextCortex AI ta Hypotenuse AI VinoskiBrown Tom B Mann Benjamin Ryder Nick Subbiah Melanie Kaplan Jared Dhariwal Prafulla Neelakantan Arvind Shyam Pranav Sastry Girish Askell Amanda Agarwal Sandhini Herbert Voss Ariel Krueger Gretchen Henighan Tom Child Rewon Ramesh Aditya Ziegler Daniel M Wu Jeffrey Winter Clemens Hesse Christopher Chen Mark Sigler Eric Litwin Mateusz Gray Scott Chess Benjamin Clark Jack Berner Christopher McCandlish Sam Radford Alec Sutskever Ilya Amodei DarioPrimitkiBrown Tom B Mann Benjamin Ryder Nick Subbiah Melanie Kaplan Jared Dhariwal Prafulla Neelakantan Arvind Shyam Pranav Sastry Girish Askell Amanda Agarwal Sandhini Herbert Voss Ariel Krueger Gretchen Henighan Tom Child Rewon Ramesh Aditya Ziegler Daniel M Wu Jeffrey Winter Clemens Hesse Christopher Chen Mark Sigler Eric Litwin Mateusz Gray Scott Chess Benjamin Clark Jack Berner Christopher McCandlish Sam Radford Alec Sutskever Ilya Amodei Dario 22 lipnya 2020 Language Models are Few Shot Learners arXiv 2005 14165 a href wiki D0 A8 D0 B0 D0 B1 D0 BB D0 BE D0 BD Cite arXiv title Shablon Cite arXiv cite arXiv a Proignorovano nevidomij parametr url dovidka angl Sutskever I Neelakantan A Radford A et al Language Models are Few Shot Learners ArXiv org 2020 75 p ISSN 2331 8422 doi 10 48550 ARXIV 2005 14165 arXiv 2005 14165 d Track Q95727440d Track Q105285886d Track Q55444792d Track Q118398d Track Q29180956 https www makeuseof com gpt models explained and compared Shead Sam 23 lipnya 2020 CNBC Arhiv originalu za 30 lipnya 2020 Procitovano 31 lipnya 2020 angl Mizh 28 travnya ta 22 lipnya 2020 roku vipusheno chotiri signalni primirniki Bussler Frederik 21 lipnya 2020 Towards Data Science Arhiv originalu za 19 serpnya 2020 Procitovano 1 serpnya 2020 angl Sagar Ram 3 chervnya 2020 Analytics India Magazine Arhiv originalu za 4 serpnya 2020 Procitovano 31 lipnya 2020 angl Chalmers David 30 lipnya 2020 Weinberg Justin red Daily Nous Philosophers On GPT 3 updated with replies by GPT 3 Arhiv originalu za 4 serpnya 2020 Procitovano 4 serpnya 2020 angl Hao Karen 23 veresnya 2020 MIT Technology Review angl Arhiv originalu za 5 lyutogo 2021 Procitovano 25 veresnya 2020 Kompaniyi zayavlyayut sho OpenAI prodovzhuvatime proponuvati svij publichnij PPI sho dozvolyaye obranim koristuvacham nadsilati tekst do GPT 3 abo inshih modelej OpenAI ta otrimuvati yihnij vihid Prote lishe Microsoft matime dostup do kodu sho lezhit v osnovi GTP 3 sho dozvolyaye yim vbudovuvati pereprofilovuvati ta zminyuvati model yak yim zamanetsya angl The Economist 11 chervnya 2020 ISSN 0013 0613 Arhiv originalu za 31 lipnya 2020 Procitovano 31 lipnya 2020 angl Polosukhin Illia Kaiser Lukasz Gomez Aidan N Jones Llion Uszkoreit Jakob Parmar Niki Shazeer Noam Vaswani Ashish 12 chervnya 2017 Attention Is All You Need arXiv 1706 03762 cs CL angl Arhiv originalu za 22 serpnya 2020 Procitovano 31 lipnya 2020 angl Radford Alec Narasimhan Karthik Salimans Tim Sutskever Ilya 11 chervnya 2018 PDF s 12 Arhiv originalu PDF za 5 lyutogo 2021 Procitovano 31 lipnya 2020 angl Sterling Bruce 13 lyutogo 2020 Wired ISSN 1059 1028 Arhiv originalu za 4 listopada 2020 Procitovano 31 lipnya 2020 angl PDF Arhiv originalu PDF za 12 grudnya 2019 Procitovano 4 grudnya 2019 GPT 2 is a 1 5B parameter Transformer angl Ray Tiernan 1 chervnya 2020 ZDNet Arhiv originalu za 1 chervnya 2020 Procitovano 31 lipnya 2020 angl OpenAI 11 chervnya 2020 Arhiv originalu za 11 chervnya 2020 Procitovano 30 zhovtnya 2020 angl TechCrunch 11 chervnya 2020 Arhiv originalu za 12 chervnya 2020 Procitovano 31 lipnya 2020 Yaksho vi koli nebud hotili sprobuvati hvalenij nabir instrumentiv mashinnogo navchannya OpenAI to ce stalo nabagato prostishim Cya kompaniya vipustila PPI sho daye mozhlivist rozrobnikam robiti vikliki yiyi instrumentiv ShI u praktichno bud yakij zadachi dlya anglijskoyi movi angl Arram 9 lipnya 2020 Arram Sabeti Arhiv originalu za 20 lipnya 2020 Procitovano 31 lipnya 2020 angl Manjoo Farhad 29 lipnya 2020 The New York Times ISSN 0362 4331 Arhiv originalu za 29 zhovtnya 2020 Procitovano 4 serpnya 2020 angl Weinberg Justin red 30 lipnya 2020 Daily Nous Arhiv originalu za 30 zhovtnya 2020 Procitovano 31 lipnya 2020 angl Simonite Tom 22 lipnya 2020 Wired ISSN 1059 1028 Arhiv originalu za 1 listopada 2020 Procitovano 31 lipnya 2020 angl Claypoole Theodore 30 lipnya 2020 en T 10 214 Arhiv originalu za 30 zhovtnya 2020 Procitovano 4 serpnya 2020 a href wiki D0 A8 D0 B0 D0 B1 D0 BB D0 BE D0 BD Cite web title Shablon Cite web cite web a Cite maye pustij nevidomij parametr 7 dovidka angl Marcus Gary 1 grudnya 2018 Medium angl Arhiv originalu za 1 serpnya 2019 Procitovano 29 veresnya 2020 angl Marcus Gary Davis Ernest 22 serpnya 2020 MIT Technology Review Arhiv originalu za 23 serpnya 2020 Procitovano 23 serpnya 2020 angl Metz Cade 24 listopada 2020 The New York Times amer ISSN 0362 4331 Arhiv originalu za 6 grudnya 2020 Procitovano 24 listopada 2020 angl GPT 3 8 veresnya 2020 The Guardian brit ISSN 0261 3077 Arhiv originalu za 4 lyutogo 2021 Procitovano 15 veresnya 2020 angl Writing helper Copy ai raises 2 9M in a round led by Craft Ventures copy ai 17 bereznya 2021 Procitovano 5 listopada 2022 Dzieza Josh 20 lipnya 2022 Can AI write good novels The Verge Procitovano 23 grudnya 2022 Democratizing Written Communication TextCortex Raises 1 2 Million Pre Seed To Advance Proprietary NLG Capabilities And Launch Chrome Extension TextCortex AI amer 21 chervnya 2022 Procitovano 14 lyutogo 2023 Lomas Natasha 7 serpnya 2020 Hypotenuse AI wants to take the strain out of copywriting for e commerce TechCrunch amer Procitovano 5 sichnya 2023 PosilannyaVideo OpenAI GPT 3 Good At Almost Everything na YouTube Two Minute Papers angl Video GPT3 An Even Bigger Language Model na YouTube en angl Video GPT 3 vs Human Brain na YouTube Lex Fridman angl