Цифрове клонування (англ. Digital cloning) — це нова технологія, яка включає алгоритми глибокого навчання, що дозволяє оперувати існуючими в даний час аудіо, фото та відео, які мають гіперреалістичний характер. Одним із наслідків такої технології є те, що гіпер-реалістичні відео та фотографії настільки якісні, що людське око не може розрізнити, що є реальним, а що підробленим. Крім того, завдяки численним компаніям, які роблять ці технології доступними для загалу, вони можуть приносити як різні переваги, так і юридичні та етичні проблеми.
Спочатку цифрове клонування набуло вжитку в індустрії розваг. Ідея цифрових клонів виникла у кінокомпаній, які створювали [en]. У випадку, коли актор помирає під час кіновиробництва, може бути синтезований цифровий клон актора за допомогою попередніх кадрів, фотографій та голосових записів, що дозволяє імітувати реальну людину та продовжити виробництво фільму.
Сучасний штучний інтелект дозволяє підробляти зображення. А саме маніпулювати відеозображенням так, що особа, зображена у відео, говорить або виконує дії, на які вона не давала згоди. У квітні 2018 року для попередження громадськості про потенційну небезпеку фейків, ресурс BuzzFeed опублікував підроблене відео, створене Джорданом Пілі (англ. Jordan Peele), в якому колишній президент Барак Обама зробив заяви, які раніше не оприлюднювалися.
Окрім фейків, такі компанії, як [en], тепер дозволяють легко створити свій власний цифровий клон з низки зображень та голосових записів. Це по суті створює цифрове безсмертя, дозволяючи близьким спілкуватися із загиблими. Цифрове клонування не лише дозволяє цифровим способом запам'ятовувати своїх близьких, але їх також можна використовувати для створення аватарів історичних фігур та використовувати їх у навчальних закладах.
З розвитком різних технологій, як згадувалося вище, виникають численні занепокоєння, серед них крадіжка особистих даних, витік даних та інші етичні проблеми. Одне з питань цифрового клонування — це те, що законодавство не достатньо захищає потенційних жертв від цих можливих проблем.
Технологія
Інтелектуальні платформи для аватарів (IAP)
Інтелектуальну платформу аватарів (англ. Intelligent Avatar Platform, IAP) можна визначити як онлайн-платформу, підтримувану штучним інтелектом, яка дозволяє створити свій клон. Індивід повинен навчити свого клона діяти та говорити так, як він це робить, для цього алгоритму надаються для навчання численні голосові та відеозаписи. По суті, ця платформа стає місцем, де аватари можуть існувати вічно, оскільки вони можуть взаємодіяти з іншими аватарами на тій же платформі. IAP стає платформою для досягнення цифрового безсмертя, а також збереження родового дерева та спадщини для наступних поколінь.
Деякі приклади IAP включають [en] та Eterni.me. Хоча більшість цих компаній ще перебувають у стадії розробки, всі вони мають спільну мету — дозволити користувачеві створити точний дублікат себе, щоб зберігати кожен спогад, який вони мають у своєму розумі, в кіберпросторі. Деякі розробники надають безкоштовну версію, яка дозволяє користувачеві вибирати лише аватар із заданого набору зображень та аудіо. А вже в преміум-версії користувач може завантажувати фотографії, відео та аудіозаписи для створення своєї реалістичної версії. Крім того, для того, щоб клон був максимально наближений до оригінальної особи, компанії також заохочують взаємодіяти з власним клоном, спілкуватись з ним у чаті та відповідати на запитання. Це дозволяє алгоритму пізнати справжню людину і застосувати ці знання до клону.
Серед потенційних проблеми IAP - можливий витік даних та відсутність згоди померлого. IAP повинен мати потужну основу та захист проти порушень та злому даних, щоб захистити особисту інформацію загиблих, яка може включати запис голосу, фотографії та повідомлення. Крім ризику порушити особисту конфіденційність, існує також ризик порушити приватне життя померлого . Хоча можна дати згоду на створення цифрового клону перед його фізичною смертю, вони не можуть дати згоду на дії, які може здійснити цифровий клон.
Deepfakes
Як було описано раніше, фейки — це форма відео маніпуляції, де можна змінити присутніх людей, подаючи різні зображення конкретної людини, яку вони хочуть. Крім того, ви також можете змінити голос і слова, які говорить людина у відео, просто надіславши серію голосових записів нової людини тривалістю близько однієї або двох хвилин. У 2018 році було випущено новий додаток під назвою FakeApp, що дозволив громадськості легко отримати доступ до цієї технології для створення відео. Цей додаток також було використано для створення відео Buzzfeed колишнього президента Барака Обами. Завдяки deepfakes, галузі можуть знизити витрати на наймання акторів або моделей для фільмів та реклами, створюючи відео та фільми ефективно за низькою ціною, лише збираючи серію фотографій та аудіозаписів за згодою особи.
Потенційна проблема, пов'язана з deepfakes, полягає в тому, що доступ надається практично кожному, хто завантажує різні додатки, які пропонують ту саму послугу. Отримавши доступ до цього інструменту, хтось може зловмисно використовувати цю програму для створення відео як помсти та маніпулятивних відео державних чиновників, які роблять заяви, про які вони ніколи не скажуть у реальному житті. Це не тільки зачіпає конфіденційність особистості у відео, але й викликає різні етичні проблеми.
Клонування голосу
Клонування голосу — це алгоритм глибокого навчання, який приймає записи голосу окремої людини і здатний синтезувати голос, дуже схожий на початковий голос. Подібно до deepfakes, є численні додатки, такі як LyreBird, iSpeech та CereVoice Me, що надають публіці доступ до такої технології. Алгоритму просто потрібно максимум пару хвилин аудіозаписів, щоб створити подібний голос, і він також зрозуміє будь-який текст і прочитає його вголос. Хоча ця програма ще перебуває на стадії розробки, вона швидко розвивається, оскільки великі корпорації технологій, такі як Google та Amazon, вкладають величезні кошти для розвитку.
Деякі з позитивних застосувань клонування голосу включають можливість синтезу мільйонів аудіокниг без використання людської праці. Ще цю технологію можна позитивно застосувати для тих, хто, можливо, втратив голос, може повернути почуття індивідуальності, створивши власний клон голосу, ввівши записи на яких ці люди говорять, перш ніж вони втратили свій голос. З іншого боку, клонування голосу також вразливе до неправильного використання. Прикладом цього є висловлювання знаменитостей та державних чиновників, які клонуються, і голос може сказати щось, що спровокує конфлікт, незважаючи на те, що особа не має нічого спільного з тим, що сказав їхній голос.
Конструктивне використання
Освіта
Цифрове клонування може бути корисним у навчальній обстановці для створення більш глибокого досвіду для студентів. Деякі студенти можуть навчитися краще завдяки більш інтерактивному досвіду, а створення фейків може підвищити здатність учнів до навчання. Одним із прикладів цього є створення цифрового клону історичних постатей, наприклад, Авраама Лінкольна, щоб показати, з якими проблемами він стикався за своє життя і як він зміг їх подолати. Ще один приклад використання цифрових клонів у навчальних закладах — це те, щоб оратори створили цифровий клон із себе. У різних адвокатських груп можуть виникнути проблеми з розкладом, оскільки вони відвідують різні школи протягом року. Однак, створюючи самі цифрові клони, їхні клони можуть презентувати тему в тих місцях, де група фізично не змогла її зробити. Ці навчальні переваги можуть принести студентам новий спосіб навчання, а також надання доступу до тих, хто раніше не мав доступу до ресурсів через екологічні умови.
Мистецтво
Хоча цифрове клонування вже деякий час є в індустрії розваг та мистецтва, штучний інтелект може значно розширити використання цих технологій у цій галузі. Кіноіндустрія може створити ще більше гіпер-реалістичних акторів та актрис, які померли. Крім того, кіноіндустрія також може створити цифрові клони на сценах з фільмами, що може зажадати додаткових даних, що може допомогти значно скоротити витрати на виробництво. Однак цифрове клонування та інші технології можуть бути корисними для некомерційних цілей. Наприклад, художники можуть бути більш виразними, якщо вони прагнуть синтезувати аватари, щоб бути частиною їх відеопродукції. Вони також можуть створювати цифрові аватари, щоб скласти свою роботу та допомогти сформулювати свої ідеї, перш ніж перейти до роботи над заключним твором.
Цифрове безсмертя
Хоча цифрове безсмертя існує деякий час, оскільки облікові записи соціальних медіа померлих продовжують залишатися в кіберпросторі, створюючи віртуальний клон, який є безсмертним, набуває нового сенсу. Створюючи цифровий клон, можна зафіксувати не лише візуальну присутність себе, але й їх маньєризм, включаючи особистість та пізнання. За допомогою цифрового безсмертя можна продовжувати взаємодіяти зі своїми близькими після того, як вони пройдуть, що, можливо, може закінчити бар'єр фізичної смерті. Крім того, сім'ї можуть з'єднуватися з декількома поколіннями, утворюючи родове дерево, в певному сенсі, передавати спадщину родини наступним поколінням, забезпечуючи спосіб передачі історії.
Побоювання
Підроблені новини
При нестачі норм для фейків виникає кілька проблем. Деякі, що стосуються відеороликів, які можуть принести потенційну шкоду, включають зображення політичних чиновників, що демонструють неадекватну поведінку, поліцейські які розстрілюють беззбройних чорношкірих людей, та солдати, що вбивають невинних цивільних, можуть почати з'являтися, хоча це в житті ніколи не траплялося. Коли такі гіперреалістичні відеоролики публікуються в Інтернеті, громадськість стає дуже легко дезінформувати, що може змусити людей вжити заходів, тим самим сприяючи цьому порочному циклу непотрібної шкоди. Крім того, із збільшенням підроблених новин в останніх новинах також існує можливість поєднання фейків та фальшивих новин. Це призведе до додаткових труднощів у розрізненні того, що є реальним, а що підробленим. Візуальна інформація може бути дуже переконливою для людських очей, тому поєднання глибоких фейків та фальшивих новин може мати згубний вплив на суспільство. Компанії соціальних медіа та інші платформи для новин повинні приймати чіткі правила.
Особисте користування
Ще одна причина, з якою зловмисно можуть використовуватися фейки, це те, що хтось може нашкодити іншому на особистому рівні. Завдяки підвищеній доступності технологій створення фейків, шантажисти і злодії здатні легко витягувати особисту інформацію для фінансових прибутків та інших причин, створюючи відео для близьких жертви щоб просити допомоги. Крім того, клонування голосу може зловмисно застосовуватися злочинцями для здійснення фальшивих телефонних дзвінків жертвам. Телефонні дзвінки матимуть точний голос та маньєризм, як особа, яка може обдурити потерпілого в наданні приватної інформації злочинцю.
Створення фейків та голосових клонів для особистого використання може бути надзвичайно важким відповідно до закону, оскільки комерційної шкоди немає. Швидше за все, вони часто виникають у формі психологічної та емоційної шкоди, утрудняючи суд у забезпеченні засобів захисту.
Етичні наслідки
Хоча існують численні юридичні проблеми, які виникають із розвитком такої технології, є також етичні проблеми, які можуть бути не захищені чинним законодавством. Однією з найбільших проблем, яка виникає із застосуванням фейків та клонування голосу, є потенціал крадіжки особистих даних. Однак крадіжку особистих даних із точки зору фейків важко переслідувати, оскільки в даний час немає законів, характерних для фейків. Крім того, збитки, які може принести зловмисне використання фейків, є скоріше психологічним та емоційним, а не фінансовим, що ускладнює надання засобів захисту. Аллен стверджує, що спосіб поводження з приватним життям схожий на категоричний імператив Канта .
Іншим етичним наслідком є використання приватної та особистої інформації, від якої потрібно відмовитися, щоб використовувати цю технологію. Оскільки цифрове клонування, фейки та клонування голосу всі використовують алгоритм глибокого навчання, чим більше інформації отримує алгоритм, тим кращі результати. Однак на кожній платформі існує ризик порушення даних, що потенційно може призвести до того, що групи, до яких користувачі ніколи не погоджуються, отримують доступ до особистої інформації. Крім того, посмертна конфіденційність ставиться під сумнів, коли члени сім'ї коханої людини намагаються зібрати якомога більше інформації, щоб створити цифровий клон померлого без дозволу, скільки інформації вони готові здати.
Діючі закони в США
Закони про авторські права
У США закони про авторські права вимагають певного виду оригінальності та креативності, щоб захистити індивідуальність автора. Однак створити цифровий клон просто означає взяти особисті дані, такі як фотографії, голосові записи та іншу інформацію, щоб створити віртуальну людину, максимально близьку до фактичної людини. У рішенні справи Верховного Суду [en]., Justice O'Connor наголосив на важливості оригінальності та певної міри творчості. Однак масштаби оригінальності та креативності чітко не визначені, що створює сіру зону для законів про авторські права. Створення цифрових клонів вимагають не тільки даних людини, але й інформування творця про те, як цифровий клон повинен діяти чи рухатися. У справі Meshwerks проти Toyota було поставлено це питання, і суд заявив, що ті ж закони про авторські права, створені для фотографії, повинні застосовуватися до цифрових клонів.
Право на публічність
Зважаючи на відсутність законодавчих актів щодо захисту осіб від потенційного шкідливого використання цифрового клонування, право на публічну рекламу може бути найкращим способом захистити його в правових умовах. Право на публічність, яке також називають правами особистості, дає автономію особистості, коли мова йде про контроль над власним голосом, зовнішністю та іншими аспектами, які по суті складають їх особистість у комерційних умовах. Якщо підроблене відео або цифровий клон одного з них виникає без їхньої згоди, зображуючи особу, яка діє або робить заяви, які не належать до їх особистості, вони можуть вжити юридичних дій, стверджуючи, що це порушує їхнє право на публічність. Хоча право на публічність конкретно зазначає, що воно має на меті захистити імідж фізичної особи в комерційній обстановці, що вимагає певного виду прибутку, деякі заявляють, що законодавство може бути оновлено для захисту практично чийогось образу та особистості. Ще одна важлива примітка полягає в тому, що право на публічність здійснюється лише в конкретних штатах, тому деякі держави можуть мати різні трактування права порівняно з іншими державами.
Профілактичні заходи
Технологія
Одним із способів для того щоб не стати жертвою будь-якої із згаданих вище технологій є розробка штучного інтелекту проти цих алгоритмів. Вже є кілька компаній, які розробили штучний інтелект, який може виявляти штучні зображення, дивлячись на шаблони кожного пікселя. Застосовуючи подібну логіку, вони намагаються створити програмне забезпечення, яке знімає кожен кадр даного відео та аналізує його піксель за пікселем, щоб знайти шаблон оригінального відео та визначити, чи ним маніпулювали чи ні.
Окрім розробки нової технології, яка дозволяє виявити будь-які відео-маніпуляції, багато дослідників підвищують значення для приватних корпорацій, створюючи більш жорсткі вказівки щодо захисту конфіденційності приватних осіб. З розвитком штучного інтелекту необхідно запитати, як це впливає на суспільство сьогодні, оскільки воно починає проявлятися практично в усіх аспектах суспільства, включаючи медицину, освіту, політику та економіку . Крім того, штучний інтелект почне з'являтися в різних аспектах суспільства, що робить важливим прийняття законів, що захищають права людини, коли технологія переймає їх. Оскільки приватний сектор отримує все більшу цифрову владу над громадськістю, важливо встановити суворі правила та закони, щоб не допустити приватних корпорацій зловмисно використовувати особисті дані. Крім того, минула історія різних порушень даних та порушень політики конфіденційності також повинна бути попередженням про те, як можна отримати доступ та використовувати особисту інформацію без згоди особи.
Цифрова грамотність
Ще один спосіб запобігти шкоді від цієї технології — це освіта людей про плюси і мінуси цифрового клонування. Це дає право кожній людині приймати раціональне рішення, виходячи з власних обставин. Крім того, важливо також навчати людей, як захистити інформацію, яку вони розміщують в Інтернеті. Підвищуючи цифрову грамотність громадськості, у людей є більше шансів визначити, чи підроблене певне відео, оскільки вони можуть більш скептично ставитися до інформації, яку вони знаходять в Інтернеті.
Див. також
Примітки
- Floridi, Luciano (2018). Artificial Intelligence, Deepfakes and a Future of Ectypes. Philosophy & Technology. 31 (3): 317—321. doi:10.1007/s13347-018-0325-3.
- Borel, Brooke (2018). Clicks, Lies and Videotape. Scientific American. 319 (4): 38—43. Bibcode:2018SciAm.319d..38B. doi:10.1038/scientificamerican1018-38. PMID 30273328.
- Beard, Joseph (2001). CLONES, BONES AND TWILIGHT ZONES: Protecting the Digital Persona of the Quick, the Dead and the Imaginary. Berkeley Technology Law Journal. 16 (3): 1165—1271. JSTOR 24116971.
- Allen, Anita (2016). Protecting One's Own Privacy In a Big Data Economy. Harvard Law Review. 130 (2): 71—86.
- Silverman, Craig (April 2018). How To Spot A Deepfake Like The Barack Obama–Jordan Peele Video. Buzzfeed.
- Meese, James (2015). Posthumous Personhood and the Affordances of Digital Media. Mortality. 20 (4): 408—420. doi:10.1080/13576275.2015.1083724.
- Nemitz, Paul Friedrich (2018). Constitutional Democracy and Technology in the Age of Artificial Intelligence. Philosophical Transactions of the Royal Society A: Mathematical, Physical and Engineering Sciences. 59 (9): 20180089. Bibcode:2018RSPTA.37680089N. doi:10.1098/rsta.2018.0089. PMID 30323003.
- Michalik, Lyndsay (2013). 'Haunting Fragments': Digital Mourning and Intermedia Performance. Theatre Annual. 66 (1): 41—64. 1501743129.
- Ursache, Marius. Eternime.
- Chesney, Robert (2018). Deep Fakes: A Looming Challenge for Privacy, Democracy, and National Security (PDF). SSRN Electronic Journal. 26 (1): 1—58.
- Suwajanakorn, Supasorn (2017). Synthesizing Obama (PDF). ACM Transactions on Graphics. 36 (4): 1—13. doi:10.1145/3072959.3073640.
- Brayne, Sarah (2018). Visual Data and the Law. Law & Social Inquiry. 43 (4): 1149—1163. doi:10.1111/lsi.12373.
- Fletcher, John (2018). Deepfakes, Artificial Intelligence, and Some Kind of Dystopia: The New Faces of Online Post-Fact Performance. Theatre Journal. 70 (4): 455—71. doi:10.1353/tj.2018.0097.
- Chesney, Robert (2019). . Foreign Affairs. 98 (1): 147—55. Архів оригіналу за 23 квітня 2019. Процитовано 28 жовтня 2019.
- Hall, Kathleen (2018). Deepfake Videos: When Seeing Isn't Believing. Catholic University Journal of Law and Technology. 27 (1): 51—75.
- Poudel, Sawrpool (2016). . Berkeley Technology Law Review. 31 (2): 997—1021. Архів оригіналу за 30 квітня 2017. Процитовано 28 жовтня 2019.
- Dang, L. Ming (2018). Deep Learning Based Computer Generated Face Identification Using Convolutional Neural Network. Applied Sciences. 8 (12): 1—19.
- Savin-Baden, Maggi (2018). Digital Immortality and Virtual Humans (PDF). Postdigital Science and Education. 1 (1): 87—103. doi:10.1007/s42438-018-0007-6.
- Newell, Bryce Clayton (2010). Independent Creation and Originality in the Age of Imitated Reality: A Comparative Analysis of Copyright and Database Protection for Digital Models of Real People. Brigham Young University International Law & Management. 6 (2): 93—126.
- Goering, Kevin (2018). New York Right of Publicity: Reimagining Privacy and the First Amendment in the Digital Age - AELJ Spring Symposium 2. SSRN Electronic Journal. 36 (3): 601—635.
- Harris, Douglas (2019). Deepfakes: False Pornography Is Here and the Law Cannot Protect You. Duke Law and Technology Review. 17: 99—127.
- Bass, Harvey (1998). A Paradigm for the Authentication of Photographic Evidence in the Digital Age. Thomas Jefferson Law Review. 20 (2): 303—322.
- Wen, Jie (2012). A Malicious Behavior Analysis Based Cyber-I Birth. Journal of Intelligent Manufacturing. 25 (1): 147—55. doi:10.1007/s10845-012-0681-2. 1490889853.
- Maras, Marie-Helen (2018). Determining Authenticity of Video Evidence in the Age of Artificial Intelligence and in the Wake of Deepfake Videos. The International Journal of Evidence & Proof. 23 (1): 255—262. doi:10.1177/1365712718807226.
Вікіпедія, Українська, Україна, книга, книги, бібліотека, стаття, читати, завантажити, безкоштовно, безкоштовно завантажити, mp3, відео, mp4, 3gp, jpg, jpeg, gif, png, малюнок, музика, пісня, фільм, книга, гра, ігри, мобільний, телефон, android, ios, apple, мобільний телефон, samsung, iphone, xiomi, xiaomi, redmi, honor, oppo, nokia, sonya, mi, ПК, web, Інтернет
Cifrove klonuvannya angl Digital cloning ce nova tehnologiya yaka vklyuchaye algoritmi glibokogo navchannya sho dozvolyaye operuvati isnuyuchimi v danij chas audio foto ta video yaki mayut giperrealistichnij harakter Odnim iz naslidkiv takoyi tehnologiyi ye te sho giper realistichni video ta fotografiyi nastilki yakisni sho lyudske oko ne mozhe rozrizniti sho ye realnim a sho pidroblenim Krim togo zavdyaki chislennim kompaniyam yaki roblyat ci tehnologiyi dostupnimi dlya zagalu voni mozhut prinositi yak rizni perevagi tak i yuridichni ta etichni problemi Spochatku cifrove klonuvannya nabulo vzhitku v industriyi rozvag Ideya cifrovih kloniv vinikla u kinokompanij yaki stvoryuvali en U vipadku koli aktor pomiraye pid chas kinovirobnictva mozhe buti sintezovanij cifrovij klon aktora za dopomogoyu poperednih kadriv fotografij ta golosovih zapisiv sho dozvolyaye imituvati realnu lyudinu ta prodovzhiti virobnictvo filmu Suchasnij shtuchnij intelekt dozvolyaye pidroblyati zobrazhennya A same manipulyuvati videozobrazhennyam tak sho osoba zobrazhena u video govorit abo vikonuye diyi na yaki vona ne davala zgodi U kvitni 2018 roku dlya poperedzhennya gromadskosti pro potencijnu nebezpeku fejkiv resurs BuzzFeed opublikuvav pidroblene video stvorene Dzhordanom Pili angl Jordan Peele v yakomu kolishnij prezident Barak Obama zrobiv zayavi yaki ranishe ne oprilyudnyuvalisya Okrim fejkiv taki kompaniyi yak en teper dozvolyayut legko stvoriti svij vlasnij cifrovij klon z nizki zobrazhen ta golosovih zapisiv Ce po suti stvoryuye cifrove bezsmertya dozvolyayuchi blizkim spilkuvatisya iz zagiblimi Cifrove klonuvannya ne lishe dozvolyaye cifrovim sposobom zapam yatovuvati svoyih blizkih ale yih takozh mozhna vikoristovuvati dlya stvorennya avatariv istorichnih figur ta vikoristovuvati yih u navchalnih zakladah Z rozvitkom riznih tehnologij yak zgaduvalosya vishe vinikayut chislenni zanepokoyennya sered nih kradizhka osobistih danih vitik danih ta inshi etichni problemi Odne z pitan cifrovogo klonuvannya ce te sho zakonodavstvo ne dostatno zahishaye potencijnih zhertv vid cih mozhlivih problem TehnologiyaIntelektualni platformi dlya avatariv IAP Intelektualnu platformu avatariv angl Intelligent Avatar Platform IAP mozhna viznachiti yak onlajn platformu pidtrimuvanu shtuchnim intelektom yaka dozvolyaye stvoriti svij klon Individ povinen navchiti svogo klona diyati ta govoriti tak yak vin ce robit dlya cogo algoritmu nadayutsya dlya navchannya chislenni golosovi ta videozapisi Po suti cya platforma staye miscem de avatari mozhut isnuvati vichno oskilki voni mozhut vzayemodiyati z inshimi avatarami na tij zhe platformi IAP staye platformoyu dlya dosyagnennya cifrovogo bezsmertya a takozh zberezhennya rodovogo dereva ta spadshini dlya nastupnih pokolin Deyaki prikladi IAP vklyuchayut en ta Eterni me Hocha bilshist cih kompanij she perebuvayut u stadiyi rozrobki vsi voni mayut spilnu metu dozvoliti koristuvachevi stvoriti tochnij dublikat sebe shob zberigati kozhen spogad yakij voni mayut u svoyemu rozumi v kiberprostori Deyaki rozrobniki nadayut bezkoshtovnu versiyu yaka dozvolyaye koristuvachevi vibirati lishe avatar iz zadanogo naboru zobrazhen ta audio A vzhe v premium versiyi koristuvach mozhe zavantazhuvati fotografiyi video ta audiozapisi dlya stvorennya svoyeyi realistichnoyi versiyi Krim togo dlya togo shob klon buv maksimalno nablizhenij do originalnoyi osobi kompaniyi takozh zaohochuyut vzayemodiyati z vlasnim klonom spilkuvatis z nim u chati ta vidpovidati na zapitannya Ce dozvolyaye algoritmu piznati spravzhnyu lyudinu i zastosuvati ci znannya do klonu Sered potencijnih problemi IAP mozhlivij vitik danih ta vidsutnist zgodi pomerlogo IAP povinen mati potuzhnu osnovu ta zahist proti porushen ta zlomu danih shob zahistiti osobistu informaciyu zagiblih yaka mozhe vklyuchati zapis golosu fotografiyi ta povidomlennya Krim riziku porushiti osobistu konfidencijnist isnuye takozh rizik porushiti privatne zhittya pomerlogo Hocha mozhna dati zgodu na stvorennya cifrovogo klonu pered jogo fizichnoyu smertyu voni ne mozhut dati zgodu na diyi yaki mozhe zdijsniti cifrovij klon Deepfakes Dokladnishe Dipfejk Yak bulo opisano ranishe fejki ce forma video manipulyaciyi de mozhna zminiti prisutnih lyudej podayuchi rizni zobrazhennya konkretnoyi lyudini yaku voni hochut Krim togo vi takozh mozhete zminiti golos i slova yaki govorit lyudina u video prosto nadislavshi seriyu golosovih zapisiv novoyi lyudini trivalistyu blizko odniyeyi abo dvoh hvilin U 2018 roci bulo vipusheno novij dodatok pid nazvoyu FakeApp sho dozvoliv gromadskosti legko otrimati dostup do ciyeyi tehnologiyi dlya stvorennya video Cej dodatok takozh bulo vikoristano dlya stvorennya video Buzzfeed kolishnogo prezidenta Baraka Obami Zavdyaki deepfakes galuzi mozhut zniziti vitrati na najmannya aktoriv abo modelej dlya filmiv ta reklami stvoryuyuchi video ta filmi efektivno za nizkoyu cinoyu lishe zbirayuchi seriyu fotografij ta audiozapisiv za zgodoyu osobi Potencijna problema pov yazana z deepfakes polyagaye v tomu sho dostup nadayetsya praktichno kozhnomu hto zavantazhuye rizni dodatki yaki proponuyut tu samu poslugu Otrimavshi dostup do cogo instrumentu htos mozhe zlovmisno vikoristovuvati cyu programu dlya stvorennya video yak pomsti ta manipulyativnih video derzhavnih chinovnikiv yaki roblyat zayavi pro yaki voni nikoli ne skazhut u realnomu zhitti Ce ne tilki zachipaye konfidencijnist osobistosti u video ale j viklikaye rizni etichni problemi Klonuvannya golosu Klonuvannya golosu ce algoritm glibokogo navchannya yakij prijmaye zapisi golosu okremoyi lyudini i zdatnij sintezuvati golos duzhe shozhij na pochatkovij golos Podibno do deepfakes ye chislenni dodatki taki yak LyreBird iSpeech ta CereVoice Me sho nadayut publici dostup do takoyi tehnologiyi Algoritmu prosto potribno maksimum paru hvilin audiozapisiv shob stvoriti podibnij golos i vin takozh zrozumiye bud yakij tekst i prochitaye jogo vgolos Hocha cya programa she perebuvaye na stadiyi rozrobki vona shvidko rozvivayetsya oskilki veliki korporaciyi tehnologij taki yak Google ta Amazon vkladayut velichezni koshti dlya rozvitku Deyaki z pozitivnih zastosuvan klonuvannya golosu vklyuchayut mozhlivist sintezu miljoniv audioknig bez vikoristannya lyudskoyi praci She cyu tehnologiyu mozhna pozitivno zastosuvati dlya tih hto mozhlivo vtrativ golos mozhe povernuti pochuttya individualnosti stvorivshi vlasnij klon golosu vvivshi zapisi na yakih ci lyudi govoryat persh nizh voni vtratili svij golos Z inshogo boku klonuvannya golosu takozh vrazlive do nepravilnogo vikoristannya Prikladom cogo ye vislovlyuvannya znamenitostej ta derzhavnih chinovnikiv yaki klonuyutsya i golos mozhe skazati shos sho sprovokuye konflikt nezvazhayuchi na te sho osoba ne maye nichogo spilnogo z tim sho skazav yihnij golos Konstruktivne vikoristannyaOsvita Cifrove klonuvannya mozhe buti korisnim u navchalnij obstanovci dlya stvorennya bilsh glibokogo dosvidu dlya studentiv Deyaki studenti mozhut navchitisya krashe zavdyaki bilsh interaktivnomu dosvidu a stvorennya fejkiv mozhe pidvishiti zdatnist uchniv do navchannya Odnim iz prikladiv cogo ye stvorennya cifrovogo klonu istorichnih postatej napriklad Avraama Linkolna shob pokazati z yakimi problemami vin stikavsya za svoye zhittya i yak vin zmig yih podolati She odin priklad vikoristannya cifrovih kloniv u navchalnih zakladah ce te shob oratori stvorili cifrovij klon iz sebe U riznih advokatskih grup mozhut viniknuti problemi z rozkladom oskilki voni vidviduyut rizni shkoli protyagom roku Odnak stvoryuyuchi sami cifrovi kloni yihni kloni mozhut prezentuvati temu v tih miscyah de grupa fizichno ne zmogla yiyi zrobiti Ci navchalni perevagi mozhut prinesti studentam novij sposib navchannya a takozh nadannya dostupu do tih hto ranishe ne mav dostupu do resursiv cherez ekologichni umovi Mistectvo Hocha cifrove klonuvannya vzhe deyakij chas ye v industriyi rozvag ta mistectva shtuchnij intelekt mozhe znachno rozshiriti vikoristannya cih tehnologij u cij galuzi Kinoindustriya mozhe stvoriti she bilshe giper realistichnih aktoriv ta aktris yaki pomerli Krim togo kinoindustriya takozh mozhe stvoriti cifrovi kloni na scenah z filmami sho mozhe zazhadati dodatkovih danih sho mozhe dopomogti znachno skorotiti vitrati na virobnictvo Odnak cifrove klonuvannya ta inshi tehnologiyi mozhut buti korisnimi dlya nekomercijnih cilej Napriklad hudozhniki mozhut buti bilsh viraznimi yaksho voni pragnut sintezuvati avatari shob buti chastinoyu yih videoprodukciyi Voni takozh mozhut stvoryuvati cifrovi avatari shob sklasti svoyu robotu ta dopomogti sformulyuvati svoyi ideyi persh nizh perejti do roboti nad zaklyuchnim tvorom Cifrove bezsmertya Hocha cifrove bezsmertya isnuye deyakij chas oskilki oblikovi zapisi socialnih media pomerlih prodovzhuyut zalishatisya v kiberprostori stvoryuyuchi virtualnij klon yakij ye bezsmertnim nabuvaye novogo sensu Stvoryuyuchi cifrovij klon mozhna zafiksuvati ne lishe vizualnu prisutnist sebe ale j yih manyerizm vklyuchayuchi osobistist ta piznannya Za dopomogoyu cifrovogo bezsmertya mozhna prodovzhuvati vzayemodiyati zi svoyimi blizkimi pislya togo yak voni projdut sho mozhlivo mozhe zakinchiti bar yer fizichnoyi smerti Krim togo sim yi mozhut z yednuvatisya z dekilkoma pokolinnyami utvoryuyuchi rodove derevo v pevnomu sensi peredavati spadshinu rodini nastupnim pokolinnyam zabezpechuyuchi sposib peredachi istoriyi PoboyuvannyaPidrobleni novini Pri nestachi norm dlya fejkiv vinikaye kilka problem Deyaki sho stosuyutsya videorolikiv yaki mozhut prinesti potencijnu shkodu vklyuchayut zobrazhennya politichnih chinovnikiv sho demonstruyut neadekvatnu povedinku policejski yaki rozstrilyuyut bezzbrojnih chornoshkirih lyudej ta soldati sho vbivayut nevinnih civilnih mozhut pochati z yavlyatisya hocha ce v zhitti nikoli ne traplyalosya Koli taki giperrealistichni videoroliki publikuyutsya v Interneti gromadskist staye duzhe legko dezinformuvati sho mozhe zmusiti lyudej vzhiti zahodiv tim samim spriyayuchi comu porochnomu ciklu nepotribnoyi shkodi Krim togo iz zbilshennyam pidroblenih novin v ostannih novinah takozh isnuye mozhlivist poyednannya fejkiv ta falshivih novin Ce prizvede do dodatkovih trudnoshiv u rozriznenni togo sho ye realnim a sho pidroblenim Vizualna informaciya mozhe buti duzhe perekonlivoyu dlya lyudskih ochej tomu poyednannya glibokih fejkiv ta falshivih novin mozhe mati zgubnij vpliv na suspilstvo Kompaniyi socialnih media ta inshi platformi dlya novin povinni prijmati chitki pravila Osobiste koristuvannya She odna prichina z yakoyu zlovmisno mozhut vikoristovuvatisya fejki ce te sho htos mozhe nashkoditi inshomu na osobistomu rivni Zavdyaki pidvishenij dostupnosti tehnologij stvorennya fejkiv shantazhisti i zlodiyi zdatni legko vityaguvati osobistu informaciyu dlya finansovih pributkiv ta inshih prichin stvoryuyuchi video dlya blizkih zhertvi shob prositi dopomogi Krim togo klonuvannya golosu mozhe zlovmisno zastosovuvatisya zlochincyami dlya zdijsnennya falshivih telefonnih dzvinkiv zhertvam Telefonni dzvinki matimut tochnij golos ta manyerizm yak osoba yaka mozhe obduriti poterpilogo v nadanni privatnoyi informaciyi zlochincyu Stvorennya fejkiv ta golosovih kloniv dlya osobistogo vikoristannya mozhe buti nadzvichajno vazhkim vidpovidno do zakonu oskilki komercijnoyi shkodi nemaye Shvidshe za vse voni chasto vinikayut u formi psihologichnoyi ta emocijnoyi shkodi utrudnyayuchi sud u zabezpechenni zasobiv zahistu Etichni naslidki Hocha isnuyut chislenni yuridichni problemi yaki vinikayut iz rozvitkom takoyi tehnologiyi ye takozh etichni problemi yaki mozhut buti ne zahisheni chinnim zakonodavstvom Odniyeyu z najbilshih problem yaka vinikaye iz zastosuvannyam fejkiv ta klonuvannya golosu ye potencial kradizhki osobistih danih Odnak kradizhku osobistih danih iz tochki zoru fejkiv vazhko peresliduvati oskilki v danij chas nemaye zakoniv harakternih dlya fejkiv Krim togo zbitki yaki mozhe prinesti zlovmisne vikoristannya fejkiv ye skorishe psihologichnim ta emocijnim a ne finansovim sho uskladnyuye nadannya zasobiv zahistu Allen stverdzhuye sho sposib povodzhennya z privatnim zhittyam shozhij na kategorichnij imperativ Kanta Inshim etichnim naslidkom ye vikoristannya privatnoyi ta osobistoyi informaciyi vid yakoyi potribno vidmovitisya shob vikoristovuvati cyu tehnologiyu Oskilki cifrove klonuvannya fejki ta klonuvannya golosu vsi vikoristovuyut algoritm glibokogo navchannya chim bilshe informaciyi otrimuye algoritm tim krashi rezultati Odnak na kozhnij platformi isnuye rizik porushennya danih sho potencijno mozhe prizvesti do togo sho grupi do yakih koristuvachi nikoli ne pogodzhuyutsya otrimuyut dostup do osobistoyi informaciyi Krim togo posmertna konfidencijnist stavitsya pid sumniv koli chleni sim yi kohanoyi lyudini namagayutsya zibrati yakomoga bilshe informaciyi shob stvoriti cifrovij klon pomerlogo bez dozvolu skilki informaciyi voni gotovi zdati Diyuchi zakoni v SShAZakoni pro avtorski prava U SShA zakoni pro avtorski prava vimagayut pevnogo vidu originalnosti ta kreativnosti shob zahistiti individualnist avtora Odnak stvoriti cifrovij klon prosto oznachaye vzyati osobisti dani taki yak fotografiyi golosovi zapisi ta inshu informaciyu shob stvoriti virtualnu lyudinu maksimalno blizku do faktichnoyi lyudini U rishenni spravi Verhovnogo Sudu en Justice O Connor nagolosiv na vazhlivosti originalnosti ta pevnoyi miri tvorchosti Odnak masshtabi originalnosti ta kreativnosti chitko ne viznacheni sho stvoryuye siru zonu dlya zakoniv pro avtorski prava Stvorennya cifrovih kloniv vimagayut ne tilki danih lyudini ale j informuvannya tvorcya pro te yak cifrovij klon povinen diyati chi ruhatisya U spravi Meshwerks proti Toyota bulo postavleno ce pitannya i sud zayaviv sho ti zh zakoni pro avtorski prava stvoreni dlya fotografiyi povinni zastosovuvatisya do cifrovih kloniv Pravo na publichnist Zvazhayuchi na vidsutnist zakonodavchih aktiv shodo zahistu osib vid potencijnogo shkidlivogo vikoristannya cifrovogo klonuvannya pravo na publichnu reklamu mozhe buti najkrashim sposobom zahistiti jogo v pravovih umovah Pravo na publichnist yake takozh nazivayut pravami osobistosti daye avtonomiyu osobistosti koli mova jde pro kontrol nad vlasnim golosom zovnishnistyu ta inshimi aspektami yaki po suti skladayut yih osobistist u komercijnih umovah Yaksho pidroblene video abo cifrovij klon odnogo z nih vinikaye bez yihnoyi zgodi zobrazhuyuchi osobu yaka diye abo robit zayavi yaki ne nalezhat do yih osobistosti voni mozhut vzhiti yuridichnih dij stverdzhuyuchi sho ce porushuye yihnye pravo na publichnist Hocha pravo na publichnist konkretno zaznachaye sho vono maye na meti zahistiti imidzh fizichnoyi osobi v komercijnij obstanovci sho vimagaye pevnogo vidu pributku deyaki zayavlyayut sho zakonodavstvo mozhe buti onovleno dlya zahistu praktichno chijogos obrazu ta osobistosti She odna vazhliva primitka polyagaye v tomu sho pravo na publichnist zdijsnyuyetsya lishe v konkretnih shtatah tomu deyaki derzhavi mozhut mati rizni traktuvannya prava porivnyano z inshimi derzhavami Profilaktichni zahodiTehnologiya Odnim iz sposobiv dlya togo shob ne stati zhertvoyu bud yakoyi iz zgadanih vishe tehnologij ye rozrobka shtuchnogo intelektu proti cih algoritmiv Vzhe ye kilka kompanij yaki rozrobili shtuchnij intelekt yakij mozhe viyavlyati shtuchni zobrazhennya divlyachis na shabloni kozhnogo pikselya Zastosovuyuchi podibnu logiku voni namagayutsya stvoriti programne zabezpechennya yake znimaye kozhen kadr danogo video ta analizuye jogo piksel za pikselem shob znajti shablon originalnogo video ta viznachiti chi nim manipulyuvali chi ni Okrim rozrobki novoyi tehnologiyi yaka dozvolyaye viyaviti bud yaki video manipulyaciyi bagato doslidnikiv pidvishuyut znachennya dlya privatnih korporacij stvoryuyuchi bilsh zhorstki vkazivki shodo zahistu konfidencijnosti privatnih osib Z rozvitkom shtuchnogo intelektu neobhidno zapitati yak ce vplivaye na suspilstvo sogodni oskilki vono pochinaye proyavlyatisya praktichno v usih aspektah suspilstva vklyuchayuchi medicinu osvitu politiku ta ekonomiku Krim togo shtuchnij intelekt pochne z yavlyatisya v riznih aspektah suspilstva sho robit vazhlivim prijnyattya zakoniv sho zahishayut prava lyudini koli tehnologiya perejmaye yih Oskilki privatnij sektor otrimuye vse bilshu cifrovu vladu nad gromadskistyu vazhlivo vstanoviti suvori pravila ta zakoni shob ne dopustiti privatnih korporacij zlovmisno vikoristovuvati osobisti dani Krim togo minula istoriya riznih porushen danih ta porushen politiki konfidencijnosti takozh povinna buti poperedzhennyam pro te yak mozhna otrimati dostup ta vikoristovuvati osobistu informaciyu bez zgodi osobi Cifrova gramotnist She odin sposib zapobigti shkodi vid ciyeyi tehnologiyi ce osvita lyudej pro plyusi i minusi cifrovogo klonuvannya Ce daye pravo kozhnij lyudini prijmati racionalne rishennya vihodyachi z vlasnih obstavin Krim togo vazhlivo takozh navchati lyudej yak zahistiti informaciyu yaku voni rozmishuyut v Interneti Pidvishuyuchi cifrovu gramotnist gromadskosti u lyudej ye bilshe shansiv viznachiti chi pidroblene pevne video oskilki voni mozhut bilsh skeptichno stavitisya do informaciyi yaku voni znahodyat v Interneti Div takozhDeepfake Gliboke navchannya en Shtuchnij intelekt Cifrovi nosiyi informaciyi Cifrovij dvijnikPrimitkiFloridi Luciano 2018 Artificial Intelligence Deepfakes and a Future of Ectypes Philosophy amp Technology 31 3 317 321 doi 10 1007 s13347 018 0325 3 Borel Brooke 2018 Clicks Lies and Videotape Scientific American 319 4 38 43 Bibcode 2018SciAm 319d 38B doi 10 1038 scientificamerican1018 38 PMID 30273328 Beard Joseph 2001 CLONES BONES AND TWILIGHT ZONES Protecting the Digital Persona of the Quick the Dead and the Imaginary Berkeley Technology Law Journal 16 3 1165 1271 JSTOR 24116971 Allen Anita 2016 Protecting One s Own Privacy In a Big Data Economy Harvard Law Review 130 2 71 86 Silverman Craig April 2018 How To Spot A Deepfake Like The Barack Obama Jordan Peele Video Buzzfeed Meese James 2015 Posthumous Personhood and the Affordances of Digital Media Mortality 20 4 408 420 doi 10 1080 13576275 2015 1083724 Nemitz Paul Friedrich 2018 Constitutional Democracy and Technology in the Age of Artificial Intelligence Philosophical Transactions of the Royal Society A Mathematical Physical and Engineering Sciences 59 9 20180089 Bibcode 2018RSPTA 37680089N doi 10 1098 rsta 2018 0089 PMID 30323003 Michalik Lyndsay 2013 Haunting Fragments Digital Mourning and Intermedia Performance Theatre Annual 66 1 41 64 1501743129 Ursache Marius Eternime Chesney Robert 2018 Deep Fakes A Looming Challenge for Privacy Democracy and National Security PDF SSRN Electronic Journal 26 1 1 58 Suwajanakorn Supasorn 2017 Synthesizing Obama PDF ACM Transactions on Graphics 36 4 1 13 doi 10 1145 3072959 3073640 Brayne Sarah 2018 Visual Data and the Law Law amp Social Inquiry 43 4 1149 1163 doi 10 1111 lsi 12373 Fletcher John 2018 Deepfakes Artificial Intelligence and Some Kind of Dystopia The New Faces of Online Post Fact Performance Theatre Journal 70 4 455 71 doi 10 1353 tj 2018 0097 Chesney Robert 2019 Foreign Affairs 98 1 147 55 Arhiv originalu za 23 kvitnya 2019 Procitovano 28 zhovtnya 2019 Hall Kathleen 2018 Deepfake Videos When Seeing Isn t Believing Catholic University Journal of Law and Technology 27 1 51 75 Poudel Sawrpool 2016 Berkeley Technology Law Review 31 2 997 1021 Arhiv originalu za 30 kvitnya 2017 Procitovano 28 zhovtnya 2019 Dang L Ming 2018 Deep Learning Based Computer Generated Face Identification Using Convolutional Neural Network Applied Sciences 8 12 1 19 Savin Baden Maggi 2018 Digital Immortality and Virtual Humans PDF Postdigital Science and Education 1 1 87 103 doi 10 1007 s42438 018 0007 6 Newell Bryce Clayton 2010 Independent Creation and Originality in the Age of Imitated Reality A Comparative Analysis of Copyright and Database Protection for Digital Models of Real People Brigham Young University International Law amp Management 6 2 93 126 Goering Kevin 2018 New York Right of Publicity Reimagining Privacy and the First Amendment in the Digital Age AELJ Spring Symposium 2 SSRN Electronic Journal 36 3 601 635 Harris Douglas 2019 Deepfakes False Pornography Is Here and the Law Cannot Protect You Duke Law and Technology Review 17 99 127 Bass Harvey 1998 A Paradigm for the Authentication of Photographic Evidence in the Digital Age Thomas Jefferson Law Review 20 2 303 322 Wen Jie 2012 A Malicious Behavior Analysis Based Cyber I Birth Journal of Intelligent Manufacturing 25 1 147 55 doi 10 1007 s10845 012 0681 2 1490889853 Maras Marie Helen 2018 Determining Authenticity of Video Evidence in the Age of Artificial Intelligence and in the Wake of Deepfake Videos The International Journal of Evidence amp Proof 23 1 255 262 doi 10 1177 1365712718807226