Дипфе́йк або діпфе́йк(англ. deepfake; конкатенація слів deep learning («глибоке навчання») та fake («підробка»)) — методика синтезу зображення людини, яка базується на штучному інтелекті. Використовують для поєднання і накладення одних зображень та відео на інші зображення або відеоролики.
Дипфейк можна використати для створення фальшивих порнографічних відео із селебриті або для помсти. Дипфейкова порнографія з'явилася в Інтернеті 2017 року, зокрема на Reddit, і була заборонена сайтами, зокрема, Reddit, Twitter і Pornhub. Дипфейк використовують для створення підроблених новин і зловмисних обманів.
Непорнографічні дипфейк-ролики можна легко знайти на популярних вебсайтах потокового відео, таких як YouTube або Vimeo. Популярна програма для дипфейку FakeApp використовує TensorFlow.
Методи виявлення жестів та перетворення початкового відео на відео з особою, схожою на цільову особу, представлені 2016 року, дозволяють обчислення в режимі реального часу підробних мімічних виразів у наявному 2D-відео.
Порнографія
Восени 2017 року анонімний користувач Reddit під псевдонімом «Deepfakes» опублікував в інтернеті кілька порнографічних відео. Першим, яке привернуло увагу, було дипфейкове відео з Дейзі Рідлі. Це один з найвідоміших дипфейкових фільмів, обговорюваний у низці статей. Інші — це симуляція сексу з акторками Галь Гадот, Еммою Вотсон, Кеті Перрі, Тейлор Свіфт або Скарлетт Йоганссон. Сцени не були реальними, а створені штучним інтелектом, про що й було невдовзі повідомлено. З часом спільнота Reddit виправила безліч помилок у фальшивих відео, тому все важче відрізнити підробку від справжнього матеріалу. Як дані тренувань для програмного забезпечення, користувачі Reddit використовували записи зі сексуальних фільмів та відповідної акторки. Про феномен дипфейку вперше повідомлено в грудні 2017 року в науково-технічному розділі журналу Vice, що спричинило багато повідомлень в інших ЗМІ.
У Великій Британії виробників дипфейків можуть притягти до відповідальності за переслідування, але існують заклики оголосити дипфейки окремим злочином.
Політика
Дипфейки використовували для підміни відомих політиків на відеопорталах або чат-кімнатах. Наприклад, обличчя президента Аргентини Маурісіо Макрі замінили обличчям Адольфа Гітлера, а обличчя Ангели Меркель — Дональда Трампа. У квітні 2018 року Джордан Піл (Jordan Peele) та Йона Перетті (Jonah Peretti) створили дипфейк із зображенням Барака Обами як публічне попередження про небезпеку дипфейків.
Центр протидії дезінформації заявив у лютому 2022 року про те, що технологія дипфейку може бути використана в інформаційно-психологічній операції в ході російського вторгнення в Україну для створення несправжнього відео з заявою про капітуляцю Володимира Зеленського.
24 червня 2022 року мер Берліна Франциска Ґіффай протягом 15 хвилин спілкувалася у відеорежимі з чоловіком, який назвався міським головою Києва Віталієм Кличком. За словами прессекретаря, спочатку бесіда не викликала жодних підозр, попри те, що співрозмовник розмовляв російською (насправді Віталій Кличко добре володіє німецькою).
Програми
У січні 2018 року випущено настільну програму FakeApp. Застосунок дозволяє користувачам легко створювати та обмінюватися відео зі зміненим обличчям. Застосунок використовує для створення фальшивого відео штучну нейронну мережу, обчислювальну потужність графічного процесора та 3-4 ГБ пам'яті. Для отримання детальної інформації програмі потрібно багато візуальних матеріалів з зображеннями людини, обличчя якої потрібно вставити, щоб, використовуючи алгоритм глибокого навчання на основі відеопослідовностей та зображень, дізнатись, які аспекти зображення слід замінити. Застосунок використовує програмний каркас для штучного інтелекту TensorFlow від Google, який, серед іншого, вже використовувався для програми . Основними цілями подібних фальшивих секс-відео є знаменитості, але деякі звичайні люди також постраждали. У серпні 2018 року дослідники з Університету Каліфорнії, Берклі опублікували статтю, в якій представлено застосунок, який, використовуючи штучний інтелект, «змушує» на відео людину танцювати так, як це робить танцівник на іншому відео.
Критика
Зловживання
стверджує, що маніпуляція фотознімками та відео з використанням штучного інтелекту може стати небезпечним масовим явищем. Проте фальсифікація зображень та відео виникла задовго до програмного забезпечення для редагування відео та зображень; новиною в цьому випадку є реалістичність. Також можна дипфейки можна використати для цільових обманів, для помсти тощо.
Вплив на довіру та автентичність
Інший ефект дипфейку полягає в тому, що більше не можна розпізнати, чи є матеріал підробним, чи справжнім. Дослідник штучного інтелекту Алекс Шампандар (Alex Champandard) сказав, що всі мають знати, які ризики несе ця технологія, і що проблема не є технічною, а, найпевніше, пов'язана з довірою до інформації та журналістики. Первинним є те, що людство може потрапити в епоху, коли буде неможливо визначити, чи відповідає істині те, що показують у ЗМІ.
Реакція в інтернеті
Деякі вебсайти, такі як Твіттер і [en], оголосили про видалення дипфейкового вмісту та блокування його видавців. Раніше платформа чатів Discord заблокувала канал чату з підробленими порновідео знаменитостей. Порнографічний вебсайт Pornhub також планує блокувати такий вміст, однак повідомляється, що сайт не виконував заборону. На Reddit ситуація спочатку залишалася незрозумілою, доки 7 лютого 2018 року відповідний субреддіт не був призупинений через порушення політики «недобровільної порнографії».
Шахрайство
Дипфейк фішинг — це новий вид фішингових атак через засоби відео та аудіокомунікацій. Цей вид атак набув популярності під час коронавірусного локдауну.[]
Методи виявлення
Дипфейкові відео можна виявити за відсутністю фізіологічних сигналів, притаманних людині: дихання, кліпання очима, пульсу. DARPA 2016 року розпочало проєкт MediFor (англ. Media Forensics, криміналістичний аналіз медіа), метою якого є розробка технологій для автоматичного оцінювання цілісності зображення чи відео та інтеграція їх у платформу для обміну криміналістичними матеріалами між кінцевими користувачами. У разі успіху, платформа MediFor автоматично виявлятиме маніпуляції, надаватиме детальну інформацію про те, як ці маніпуляції виконано, а також оцінюватиме загальну цілісність візуальних матеріалів, щоб полегшити рішення щодо використання будь-якого сумнівного зображення чи відео.
AI Foundation розробляє програмне забезпечення для перевірки справжності медіа. Дослідники запрошують користувачів надсилати їм матеріали, які є фейками для навчання штучного інтелекту.
Див. також
Примітки
- Дипфейк — веселий тренд чи правопорушення? (укр.). ain. 06 жовтня, 2023.
- . Радіо Свобода (укр.). Архів оригіналу за 18 лютого 2022. Процитовано 18 лютого 2022.
- ua.korrespondent
- Brandon, John (16 лютого 2018). . Fox News (амер.). Архів оригіналу за 15 червня 2018. Процитовано 20 лютого 2018.
- . Highsnobiety (амер.). 20 лютого 2018. Архів оригіналу за 14 липня 2021. Процитовано 20 лютого 2018.
- Roettgers, Janko (21 лютого 2018). . Variety (амер.). Архів оригіналу за 10 червня 2019. Процитовано 28 лютого 2018.
- (англ.). Архів оригіналу за 10 квітня 2019. Процитовано 20 лютого 2018.
- Kharpal, Arjun (8 лютого 2018). . CNBC. Архів оригіналу за 10 квітня 2019. Процитовано 20 лютого 2018.
- . PCMAG (англ.). Архів оригіналу за 10 квітня 2019. Процитовано 20 лютого 2018.
- . The Outline (англ.). Архів оригіналу за 16 січня 2020. Процитовано 28 лютого 2018.
- Roose, Kevin (4 березня 2018). . The New York Times (амер.). ISSN 0362-4331. Архів оригіналу за 18 червня 2019. Процитовано 24 березня 2018.
- . Reason.com (англ.). 25 січня 2018. Архів оригіналу за 22 березня 2018. Процитовано 24 березня 2018.
- . The Verge. Архів оригіналу за 24 березня 2018. Процитовано 24 березня 2018.
- Thies, Justus (2016). . Proc. Computer Vision and Pattern Recognition (CVPR), IEEE. Архів оригіналу за 26 лютого 2018. Процитовано 24 лютого 2018.
- , Motherboard, 11 грудня 2017, архів оригіналу за 5 травня 2019, процитовано 12 листопада 2018
- Markus Böhm (7 лютого 2018), , Spiegel Online, архів оригіналу за 23 вересня 2019, процитовано 12 листопада 2018
- (англ.). The Guardian. Архів оригіналу за 21 червня 2018. Процитовано 12 листопада 2018.
- . az Aargauer Zeitung. 3 лютого 2018. Архів оригіналу за 13 квітня 2019. Процитовано 12 листопада 2018.
- Patrick Gensing. . Архів оригіналу за 11 жовтня 2018. Процитовано 12 листопада 2018.
- Romano, Aja (18 квітня 2018). . Vox. Архів оригіналу за 11 червня 2019. Процитовано 10 вересня 2018.
- . www.ukrinform.ua (укр.). Архів оригіналу за 2 березня 2022. Процитовано 2 березня 2022.
- Дивні запитання та розмова російською: мер Берліна поговорила з несправжнім Кличком. ТСН.ua (укр.). 25 червня 2022. Процитовано 25 червня 2022.
- Britta Bauchmüller, , Berliner-Kurier.de, архів оригіналу за 28 серпня 2019, процитовано 12 листопада 2018
- Eike Kühl (26 січня 2018), , Die Zeit, ISSN 0044-2070, архів оригіналу за 24 травня 2019, процитовано 12 листопада 2018
- heise online, , архів оригіналу за 12 грудня 2019, процитовано 12 листопада 2018
- Farquhar, Peter (27 серпня 2018). . Business Insider Australia (англ.). Архів оригіналу за 10 квітня 2019. Процитовано 27 серпня 2018.
- . The Verge. Архів оригіналу за 17 травня 2019. Процитовано 27 серпня 2018.
- , Die Zeit, 26 січня 2018, ISSN 0044-2070, архів оригіналу за 25 травня 2019, процитовано 12 листопада 2018
- . Engadget (амер.). Архів оригіналу за 10 квітня 2019. Процитовано 21 квітня 2018.
- . BuzzFeed (англ.). Архів оригіналу за 20 червня 2018. Процитовано 21 квітня 2018.
- barbara.wimmer, , архів оригіналу за 8 лютого 2018, процитовано 12 листопада 2018
- heise online. . Архів оригіналу за 10 квітня 2019. Процитовано 12 листопада 2018.
- . Архів оригіналу за 10 квітня 2019. Процитовано 12 листопада 2018.
- Stupp, Catherine (30 серпня 2019). Fraudsters Used AI to Mimic CEO’s Voice in Unusual Cybercrime Case. Wall Street Journal (амер.). ISSN 0099-9660. Процитовано 24 грудня 2022.
- Yuezun Li, Ming-Ching Chang and Siwei Lyu. (PDF). Архів оригіналу (PDF) за 13 листопада 2018. Процитовано 12 листопада 2018.
- . Архів оригіналу за 29 жовтня 2020. Процитовано 12 листопада 2018.
- . www.aifoundation.com. Архів оригіналу за 12 січня 2019. Процитовано 12 січня 2019.
Посилання
- «This new technology could send American politics into a tailspin»
- Технологія глибоких фейків: як глибоко брехня може інкорпоруватися в наше життя? [ 12 січня 2019 у Wayback Machine.]
Вікіпедія, Українська, Україна, книга, книги, бібліотека, стаття, читати, завантажити, безкоштовно, безкоштовно завантажити, mp3, відео, mp4, 3gp, jpg, jpeg, gif, png, малюнок, музика, пісня, фільм, книга, гра, ігри, мобільний, телефон, android, ios, apple, мобільний телефон, samsung, iphone, xiomi, xiaomi, redmi, honor, oppo, nokia, sonya, mi, ПК, web, Інтернет
Dipfe jk abo dipfe jk angl deepfake konkatenaciya sliv deep learning gliboke navchannya ta fake pidrobka metodika sintezu zobrazhennya lyudini yaka bazuyetsya na shtuchnomu intelekti Vikoristovuyut dlya poyednannya i nakladennya odnih zobrazhen ta video na inshi zobrazhennya abo videoroliki Zhinoche oblichchya zgenerovane komp yuterom na osnovi realnih foto Dipfejk mozhna vikoristati dlya stvorennya falshivih pornografichnih video iz selebriti abo dlya pomsti Dipfejkova pornografiya z yavilasya v Interneti 2017 roku zokrema na Reddit i bula zaboronena sajtami zokrema Reddit Twitter i Pornhub Dipfejk vikoristovuyut dlya stvorennya pidroblenih novin i zlovmisnih obmaniv Nepornografichni dipfejk roliki mozhna legko znajti na populyarnih vebsajtah potokovogo video takih yak YouTube abo Vimeo Populyarna programa dlya dipfejku FakeApp vikoristovuye TensorFlow Metodi viyavlennya zhestiv ta peretvorennya pochatkovogo video na video z osoboyu shozhoyu na cilovu osobu predstavleni 2016 roku dozvolyayut obchislennya v rezhimi realnogo chasu pidrobnih mimichnih viraziv u nayavnomu 2D video PornografiyaVoseni 2017 roku anonimnij koristuvach Reddit pid psevdonimom Deepfakes opublikuvav v interneti kilka pornografichnih video Pershim yake privernulo uvagu bulo dipfejkove video z Dejzi Ridli Ce odin z najvidomishih dipfejkovih filmiv obgovoryuvanij u nizci statej Inshi ce simulyaciya seksu z aktorkami Gal Gadot Emmoyu Votson Keti Perri Tejlor Svift abo Skarlett Jogansson Sceni ne buli realnimi a stvoreni shtuchnim intelektom pro sho j bulo nevdovzi povidomleno Z chasom spilnota Reddit vipravila bezlich pomilok u falshivih video tomu vse vazhche vidrizniti pidrobku vid spravzhnogo materialu Yak dani trenuvan dlya programnogo zabezpechennya koristuvachi Reddit vikoristovuvali zapisi zi seksualnih filmiv ta vidpovidnoyi aktorki Pro fenomen dipfejku vpershe povidomleno v grudni 2017 roku v naukovo tehnichnomu rozdili zhurnalu Vice sho sprichinilo bagato povidomlen v inshih ZMI U Velikij Britaniyi virobnikiv dipfejkiv mozhut prityagti do vidpovidalnosti za peresliduvannya ale isnuyut zakliki ogolositi dipfejki okremim zlochinom Politika source source source source source source source source track Dipfejkove video Volodimir Putin nibito zasterigaye amerikanciv vid vtruchannya u vibori ta zbilshennya politichnogo rozrivu z Rosiyeyu Dipfejki vikoristovuvali dlya pidmini vidomih politikiv na videoportalah abo chat kimnatah Napriklad oblichchya prezidenta Argentini Maurisio Makri zaminili oblichchyam Adolfa Gitlera a oblichchya Angeli Merkel Donalda Trampa U kvitni 2018 roku Dzhordan Pil Jordan Peele ta Jona Peretti Jonah Peretti stvorili dipfejk iz zobrazhennyam Baraka Obami yak publichne poperedzhennya pro nebezpeku dipfejkiv Centr protidiyi dezinformaciyi zayaviv u lyutomu 2022 roku pro te sho tehnologiya dipfejku mozhe buti vikoristana v informacijno psihologichnij operaciyi v hodi rosijskogo vtorgnennya v Ukrayinu dlya stvorennya nespravzhnogo video z zayavoyu pro kapitulyacyu Volodimira Zelenskogo 24 chervnya 2022 roku mer Berlina Franciska Giffaj protyagom 15 hvilin spilkuvalasya u videorezhimi z cholovikom yakij nazvavsya miskim golovoyu Kiyeva Vitaliyem Klichkom Za slovami pressekretarya spochatku besida ne viklikala zhodnih pidozr popri te sho spivrozmovnik rozmovlyav rosijskoyu naspravdi Vitalij Klichko dobre volodiye nimeckoyu ProgramiU sichni 2018 roku vipusheno nastilnu programu FakeApp Zastosunok dozvolyaye koristuvacham legko stvoryuvati ta obminyuvatisya video zi zminenim oblichchyam Zastosunok vikoristovuye dlya stvorennya falshivogo video shtuchnu nejronnu merezhu obchislyuvalnu potuzhnist grafichnogo procesora ta 3 4 GB pam yati Dlya otrimannya detalnoyi informaciyi programi potribno bagato vizualnih materialiv z zobrazhennyami lyudini oblichchya yakoyi potribno vstaviti shob vikoristovuyuchi algoritm glibokogo navchannya na osnovi videoposlidovnostej ta zobrazhen diznatis yaki aspekti zobrazhennya slid zaminiti Zastosunok vikoristovuye programnij karkas dlya shtuchnogo intelektu TensorFlow vid Google yakij sered inshogo vzhe vikoristovuvavsya dlya programi inshi movi Osnovnimi cilyami podibnih falshivih seks video ye znamenitosti ale deyaki zvichajni lyudi takozh postrazhdali U serpni 2018 roku doslidniki z Universitetu Kaliforniyi Berkli opublikuvali stattyu v yakij predstavleno zastosunok yakij vikoristovuyuchi shtuchnij intelekt zmushuye na video lyudinu tancyuvati tak yak ce robit tancivnik na inshomu video KritikaDipfejkove foto sho zobrazhaye tipovu amerikanku Zlovzhivannya stverdzhuye sho manipulyaciya fotoznimkami ta video z vikoristannyam shtuchnogo intelektu mozhe stati nebezpechnim masovim yavishem Prote falsifikaciya zobrazhen ta video vinikla zadovgo do programnogo zabezpechennya dlya redaguvannya video ta zobrazhen novinoyu v comu vipadku ye realistichnist Takozh mozhna dipfejki mozhna vikoristati dlya cilovih obmaniv dlya pomsti tosho Vpliv na doviru ta avtentichnist Inshij efekt dipfejku polyagaye v tomu sho bilshe ne mozhna rozpiznati chi ye material pidrobnim chi spravzhnim Doslidnik shtuchnogo intelektu Aleks Shampandar Alex Champandard skazav sho vsi mayut znati yaki riziki nese cya tehnologiya i sho problema ne ye tehnichnoyu a najpevnishe pov yazana z doviroyu do informaciyi ta zhurnalistiki Pervinnim ye te sho lyudstvo mozhe potrapiti v epohu koli bude nemozhlivo viznachiti chi vidpovidaye istini te sho pokazuyut u ZMI Reakciya v interneti Deyaki vebsajti taki yak Tvitter i en ogolosili pro vidalennya dipfejkovogo vmistu ta blokuvannya jogo vidavciv Ranishe platforma chativ Discord zablokuvala kanal chatu z pidroblenimi pornovideo znamenitostej Pornografichnij vebsajt Pornhub takozh planuye blokuvati takij vmist odnak povidomlyayetsya sho sajt ne vikonuvav zaboronu Na Reddit situaciya spochatku zalishalasya nezrozumiloyu doki 7 lyutogo 2018 roku vidpovidnij subreddit ne buv prizupinenij cherez porushennya politiki nedobrovilnoyi pornografiyi Shahrajstvo Dipfejk fishing ce novij vid fishingovih atak cherez zasobi video ta audiokomunikacij Cej vid atak nabuv populyarnosti pid chas koronavirusnogo lokdaunu dzherelo Metodi viyavlennyaDipfejkovi video mozhna viyaviti za vidsutnistyu fiziologichnih signaliv pritamannih lyudini dihannya klipannya ochima pulsu DARPA 2016 roku rozpochalo proyekt MediFor angl Media Forensics kriminalistichnij analiz media metoyu yakogo ye rozrobka tehnologij dlya avtomatichnogo ocinyuvannya cilisnosti zobrazhennya chi video ta integraciya yih u platformu dlya obminu kriminalistichnimi materialami mizh kincevimi koristuvachami U razi uspihu platforma MediFor avtomatichno viyavlyatime manipulyaciyi nadavatime detalnu informaciyu pro te yak ci manipulyaciyi vikonano a takozh ocinyuvatime zagalnu cilisnist vizualnih materialiv shob polegshiti rishennya shodo vikoristannya bud yakogo sumnivnogo zobrazhennya chi video AI Foundation rozroblyaye programne zabezpechennya dlya perevirki spravzhnosti media Doslidniki zaproshuyut koristuvachiv nadsilati yim materiali yaki ye fejkami dlya navchannya shtuchnogo intelektu Div takozhZhivopis na osnovi shtuchnogo intelektu Porodzhuvalnij shtuchnij intelekt Cifrove klonuvannya FaceAppPrimitkiDipfejk veselij trend chi pravoporushennya ukr ain 06 zhovtnya 2023 Radio Svoboda ukr Arhiv originalu za 18 lyutogo 2022 Procitovano 18 lyutogo 2022 ua korrespondent Brandon John 16 lyutogo 2018 Fox News amer Arhiv originalu za 15 chervnya 2018 Procitovano 20 lyutogo 2018 Highsnobiety amer 20 lyutogo 2018 Arhiv originalu za 14 lipnya 2021 Procitovano 20 lyutogo 2018 Roettgers Janko 21 lyutogo 2018 Variety amer Arhiv originalu za 10 chervnya 2019 Procitovano 28 lyutogo 2018 angl Arhiv originalu za 10 kvitnya 2019 Procitovano 20 lyutogo 2018 Kharpal Arjun 8 lyutogo 2018 CNBC Arhiv originalu za 10 kvitnya 2019 Procitovano 20 lyutogo 2018 PCMAG angl Arhiv originalu za 10 kvitnya 2019 Procitovano 20 lyutogo 2018 The Outline angl Arhiv originalu za 16 sichnya 2020 Procitovano 28 lyutogo 2018 Roose Kevin 4 bereznya 2018 The New York Times amer ISSN 0362 4331 Arhiv originalu za 18 chervnya 2019 Procitovano 24 bereznya 2018 Reason com angl 25 sichnya 2018 Arhiv originalu za 22 bereznya 2018 Procitovano 24 bereznya 2018 The Verge Arhiv originalu za 24 bereznya 2018 Procitovano 24 bereznya 2018 Thies Justus 2016 Proc Computer Vision and Pattern Recognition CVPR IEEE Arhiv originalu za 26 lyutogo 2018 Procitovano 24 lyutogo 2018 Motherboard 11 grudnya 2017 arhiv originalu za 5 travnya 2019 procitovano 12 listopada 2018 Markus Bohm 7 lyutogo 2018 Spiegel Online arhiv originalu za 23 veresnya 2019 procitovano 12 listopada 2018 angl The Guardian Arhiv originalu za 21 chervnya 2018 Procitovano 12 listopada 2018 az Aargauer Zeitung 3 lyutogo 2018 Arhiv originalu za 13 kvitnya 2019 Procitovano 12 listopada 2018 Patrick Gensing Arhiv originalu za 11 zhovtnya 2018 Procitovano 12 listopada 2018 Romano Aja 18 kvitnya 2018 Vox Arhiv originalu za 11 chervnya 2019 Procitovano 10 veresnya 2018 www ukrinform ua ukr Arhiv originalu za 2 bereznya 2022 Procitovano 2 bereznya 2022 Divni zapitannya ta rozmova rosijskoyu mer Berlina pogovorila z nespravzhnim Klichkom TSN ua ukr 25 chervnya 2022 Procitovano 25 chervnya 2022 Britta Bauchmuller Berliner Kurier de arhiv originalu za 28 serpnya 2019 procitovano 12 listopada 2018 Eike Kuhl 26 sichnya 2018 Die Zeit ISSN 0044 2070 arhiv originalu za 24 travnya 2019 procitovano 12 listopada 2018 heise online arhiv originalu za 12 grudnya 2019 procitovano 12 listopada 2018 Farquhar Peter 27 serpnya 2018 Business Insider Australia angl Arhiv originalu za 10 kvitnya 2019 Procitovano 27 serpnya 2018 The Verge Arhiv originalu za 17 travnya 2019 Procitovano 27 serpnya 2018 Die Zeit 26 sichnya 2018 ISSN 0044 2070 arhiv originalu za 25 travnya 2019 procitovano 12 listopada 2018 Engadget amer Arhiv originalu za 10 kvitnya 2019 Procitovano 21 kvitnya 2018 BuzzFeed angl Arhiv originalu za 20 chervnya 2018 Procitovano 21 kvitnya 2018 barbara wimmer arhiv originalu za 8 lyutogo 2018 procitovano 12 listopada 2018 heise online Arhiv originalu za 10 kvitnya 2019 Procitovano 12 listopada 2018 Arhiv originalu za 10 kvitnya 2019 Procitovano 12 listopada 2018 Stupp Catherine 30 serpnya 2019 Fraudsters Used AI to Mimic CEO s Voice in Unusual Cybercrime Case Wall Street Journal amer ISSN 0099 9660 Procitovano 24 grudnya 2022 Yuezun Li Ming Ching Chang and Siwei Lyu PDF Arhiv originalu PDF za 13 listopada 2018 Procitovano 12 listopada 2018 Arhiv originalu za 29 zhovtnya 2020 Procitovano 12 listopada 2018 www aifoundation com Arhiv originalu za 12 sichnya 2019 Procitovano 12 sichnya 2019 Posilannya This new technology could send American politics into a tailspin Tehnologiya glibokih fejkiv yak gliboko brehnya mozhe inkorporuvatisya v nashe zhittya 12 sichnya 2019 u Wayback Machine