Дипфејк (претварањедубоког учења “ и „лажног“[1]) су синтетички медији[2] у којима је особа на постојећој слици или видео снимку замењена нечијим ликом. Иако чин креирања лажног садржаја није нов, дипфејк користи моћне технике од машинског учења и вештачке интелигенције за манипулисање или генерисање визуелног и аудио садржаја који може лакше заварати.[3] Главне методе машинског учења које се користе за креирање дипфејк-а су засноване на дубоком учењу и укључују тренинг генеративних архитектура неуронских мрежа, као што су аутоенкодери[3] или генеративне адверсаријске мреже (ГАН).[4][5]

Дипфејкови су привукли широку пажњу због своје употребе у креирању материјала за сексуално злостављање деце, порнографских видео снимака славних личности, осветничких порнографија, лажних вести, обмана, малтретирања и финансијских превара.[6][7][8][9] Ово је изазвало одговоре и индустрије и владе да открију и ограниче њихову употребу.[10][11]

Историја уреди

Манипулација фотографијама развијена је у 19. веку и убрзо примењена на филмове . Технологија се стално побољшавала током 20. века, а још брже са дигиталним видеом .

Дипфејк технологију су развили истраживачи на академским институцијама почевши од 1990-их, а касније и аматери у онлајн заједницама.[12][13] Недавно је ове методе усвојила индустрија.[14]

Академска истраживања уреди

Академска истраживања која се односе на дипфејк подељена су између поља компјутерске визије, подобласти компјутерске науке,[12] која развија технике за креирање и препознавање дипфејка, приступа хуманистичких и друштвених наука који проучавају друштвене, етичке и естетске последице дипфејка.

Друштвени и хуманистички приступи дипфејк-у уреди

У биоскопским студијама, дипфејк демонстрира како се „људско лице појављује као централни објекат амбиваленције у дигиталном добу“.[15] Видео уметници су користили дипфејк да „разиграно препишу филмску историју тако што ће реконструисати канонски биоскоп новим звездама“.[16] Филмски научник Кристофер Холидеј анализира како замена пола и расе извођача у познатим филмским сценама дестабилизује родне класификације и категорије.[16] Идеја „ куееринг “ дипфејка се такође разматра у дискусији Оливера М. Џингрича о медијским уметничким делима која користе дипфејк за преобликовање рода,[17] укључујући Зизи британског уметника Џејка Елвеса: Queering the Dataset, уметничко дело које користи дипфејк повлачења краљица да се намерно игра са полом. Почињу да се истражују и естетски потенцијали дипфејка. Историчар позоришта Џон Флечер напомиње да су ране демонстрације дипфејк-а представљене као представе и поставља их у контекст позоришта, расправљајући о „неким од најзабрињавајућих промена парадигми” које дипфејк представљају као жанр перформанса.[18]

Филозофи и медијски научници расправљали су о етици дипфејка посебно у вези са порнографијом.[19] Научница у области медија Емили ван дер Нагел ослања се на истраживање у фотографским студијама о изманипулисаним сликама како би разговарала о системима верификације који омогућавају женама да дају сагласност за коришћење њихових слика.[20]

Осим порнографије, филозофи су дефинисали дипфејк као „епистемичку претњу“ знању, а тиме и друштву.[21] Постоји неколико других предлога како да се носите са ризицима који дипфејкови изазивају изван порнографије, али и за корпорације, политичаре и друге, од „експлоатације, застрашивања и личне саботаже“,[22] и постоји неколико научних дискусија о потенцијалним правним и регулаторним одговорима како у правним студијама тако и у студијама медија.[23] У психологији и студијама о медијима, научници расправљају о ефектима дезинформација које користе дипфејк,[24][25] као и о друштвеном утицају дипфејка.[26]

Док се већина академских студија дипфејка на енглеском језику фокусира на забринутост Запада око дезинформација и порнографије, дигитални антрополог Габриеле де Сета анализирао је кинеску рецепцију дипфејка, познату као huanlian, што у преводу значи „промена лица“. Кинески израз не садржи „fake“ од енглеског deepfake, а де Сета тврди да овај културни контекст може објаснити зашто је кинески одговор био више о практичним регулаторним одговорима на „ризике од преваре, права на имиџ, економски профит и етичке неравнотеже“.[27]

Истраживање компјутерских наука о дипфејк-у уреди

Рани значајан пројекат био је програм Video Rewrite, објављен 1997. године, који је модификовао постојеће видео снимке особе која говори како би приказала ту особу како изговара речи садржане у другом аудио запису.[28] Био је то први систем који је у потпуности аутоматизовао ову врсту реанимације лица, а то је учинио користећи технике машинског учења како би успоставио везе између звукова које производи субјекат видео снимка и облика лица субјекта.[28]

Савремени академски пројекти су се фокусирали на стварање реалистичнијих видео записа и на побољшање техника.[29][30] Програм „Synthesizing Оbаmа“, објављен 2017. године, модификује видео снимак бившег председника Барака Обаме како би га приказао док изговара речи садржане у засебном аудио запису.[29] Пројекат наводи као главни истраживачки допринос своју фотореалистичну технику за синтетизовање облика уста из звука.[29] Програм Face2Face, објављен 2016. године, модификује видео снимке лица особе како би приказала мимику лица друге особе у реалном времену.[30] Пројекат наводи као главни истраживачки допринос први метод за понављање израза лица у реалном времену помоћу камере која не снима дубину, што омогућава да се техника изводи коришћењем уобичајених потрошачких камера.[30]

У августу 2018, истраживачи са Универзитета у Калифорнији у Берклију објавили су рад у којем су представили лажну апликацију за плес која може створити утисак мајсторске способности плеса користећи АИ.[31][32] Овај пројекат проширује примену дипфејк-а на цело тело; претходни радови усмерени на главу или делове лица.[31]

Истраживачи су такође показали да се дипфејк проширују на друге домене, као што је нарушавање медицинских слика.[33] У овом раду је показано како нападач може аутоматски убризгати или уклонити рак плућа у пацијентовом 3D CT скенеру. Резултат је био толико убедљив да је преварио три радиолога и најсавременију АИ за откривање рака плућа. Да би демонстрирали претњу, аутори су успешно извели напад на болницу у тесту пенетрације белог шешира .[34]

Истраживање дипфејка-а, објављено у мају 2020, пружа временски оквир о томе како је креирање и откривање дипфејк-а напредовало у последњих неколико година.[35] Истраживање је показало да су се истраживачи фокусирали на решавање следећих изазова креирања дипфејк-а:

  • Генерализација. Висококвалитетни дипфејк се често постиже тренирањем сатима на снимку мете. Овај изазов је да се минимизира количина података за обуку која је потребна за производњу квалитетних слика и да се омогући извођење обучених модела на новим идентитетима (невидљивим током обуке).
  • Упарени тренинг. Обука надзираног модела може да произведе резултате високог квалитета, али захтева упаривање података. Ово је процес проналажења примера улаза и њихових жељених излаза из којих модел може да учи. Упаривање података је напорно и непрактично када се тренира на вишеструким идентитетима и понашањима лица. Нека решења укључују самоконтролисану обуку (користећи оквире из истог видеа), коришћење неупарених мрежа као што је Cycle-GAN или манипулацију мрежним уграђивањем.
  • Цурење идентитета. Ово је место где се идентитет возача (тј. глумца који контролише лице у реконструкцији) делимично преноси на генерисано лице. Нека предложена решења укључују механизме пажње, учење у неколико хитаца, растављање, конверзије граница и прескакање веза.
  • Зачепљења. Када је део лица зачепљен руком, косом, наочарима или било којим другим предметом, могу се појавити артефакти. Уобичајена зачепљења су затворена уста која скривају унутрашњост уста и зубе. Нека решења укључују сегментацију слике током тренинга и сликања.
  • Временска кохерентност. У видео снимцима који садрже дипфејк, могу се појавити артефакти као што су треперење и подрхтавање јер мрежа нема контекст претходних кадрова. Неки истраживачи пружају овај контекст или користе нове губитке временске кохерентности како би помогли у побољшању реализма. Како се технологија побољшава, сметње се смањује.

Све у свему, очекује се да ће дипфејк имати неколико последица на медије и друштво, медијску продукцију, медијско представљање, медијску публику, род, закон, регулативу и политику.[36]

Аматерски развој уреди

Термин deepfakes је настао крајем 2017. од корисника Редит -а по имену „deepfakes“.[37] Он, као и други у Reddit заједници r/deepfakes, делили су дипфејк који су креирали; многи видео снимци који су укључивали лица познатих личности замењена на тела глумица у порнографским видео снимцима,[37] док је непорнографски садржај укључивао многе видео снимке са лицем глумца Николаса Кејџа који су замењени у различитим филмовима.[38]

Остале су и друге онлајн заједнице, укључујући Реддит заједнице које не деле порнографију, као што је r/SFWdeepfakes (скраћено од „safe for work deepfakes“), у којима чланови заједнице деле дипфејк који приказујe познате личности, политичаре и друге у непорнографским сценаријима.[39] Друге онлајн заједнице настављају да деле порнографију на платформама које нису забраниле дипфејк порнографију.[40]

Комерцијални развој уреди

У јануару 2018. покренута је власничка десктоп апликација под називом FakeApp.[41] Ова апликација омогућава корисницима да лако креирају и деле видео записе са замењеним лицима.[42] Од 2019. године, FakeApp је замењен алтернативама отвореног кода као што су Faceswap, DeepFaceLab базиран на командној линији и веб апликацијама као што је DeepfakesWeb.com [43][44][45]

Веће компаније почеле су да користе дипфејк.[14] Корпоративни видео снимци за обуку могу се креирати коришћењем дипфејк аватара и њихових гласова, на пример Synthesia, која користи дипфејк технологију са аватарима за креирање персонализованих видео снимака.[46] Гигант мобилних апликација Моmo креирао је апликацију Zao која омогућава корисницима да преклопе своје лице на телевизијске и филмске снимке са једном сликом.[14] Од 2019. јапанска АИ компанија DataGrid је направила дипфејк целог тела који би могао да створи особу од нуле.[47] Они намеравају да их користе за моду и одећу.

Од 2020. такође постоје аудио-дипфејкови и софтвер вештачке интелигенције који је способан да открије дипфејк и клонира људске гласове након 5 секунди времена слушања.[48][49][50][51][52][53] Мобилна дипфејк апликација Impressions покренута је у марту 2020. Била је то прва апликација за креирање дипфејк видео снимака славних са мобилних телефона.[54][55]

Васкрсење уреди

Дипфејк технологија се не може користити само за фабриковање порука и акција других, већ се може користити и за оживљавање преминулих појединаца. Дана 29. октобра 2020, Ким Кардашијан је објавила видео снимак свог покојног оца Роберта Кардашијана ; лице у видеу Роберта Кардашијана креирано је технологијом дипфејк.[56] Овај холограм је креирала компанија Калеида, где у креирању холограма користе комбинацију перформанси, праћења покрета, SFX, VFX и Дипфејк технологија.[57]

Године 2020, Хоакин Оливер, жртва пуцњаве у Паркланду, васкрсао је помоћу дипфејк технологије. Оливерови родитељи су се удружили у име своје организације Nonprofit Change the Ref, са McCann Health-ом да направе овај дипфејк видео који се залаже за кампању гласања о безбедности оружја.[58] У овој лажној поруци, приказује Хоакина како охрабрује гледаоце да гласају.

Дошло је и до лажног васкрсавања поп културних и историјских личности које су убијене, на пример, члана Битлса, Џона Ленона, убијеног 1980. године.

Технике уреди

Дипфејкови се ослањају на тип неуронске мреже који се зове аутоенкодер .[5][59] Они се састоје од енкодера, који своди слику на нижедимензионални латентни простор, и декодера, који реконструише слику из латентне репрезентације.[60] Дипфејк користи ову архитектуру тако што има универзални кодер који кодира особу у латентни простор.[61] Латентна репрезентација садржи кључне карактеристике њихових црта лица и држања тела. Ово се затим може декодирати помоћу модела обученог посебно за мету.[5] То значи да ће детаљне информације о мети бити постављене на основне карактеристике лица и тела оригиналног видеа, представљене у латентном простору.[5]

Популарна надоградња ове архитектуре повезује генеративну супарничку мрежу на декодер.[61] GAN обучава генератор, у овом случају декодер, и дискриминатор у супарничком односу.[61] Генератор ствара нове слике из латентне репрезентације изворног материјала, док дискриминатор покушава да утврди да ли је слика генерисана или не.[61] Ово доводи до тога да генератор ствара слике које изузетно добро опонашају стварност јер би дискриминатор ухватио све недостатке.[62] Оба алгоритма се стално побољшавају у игри са нултом сумом .[61] Ово отежава борбу против дипфејка јер се стално развијају; сваки пут када се утврди квар, може се исправити.[62]

Примене уреди

Уцена уреди

Дипфејк се може користити за генерисање материјала за уцене који лажно инкриминишу жртву. Међутим, пошто се лажњаци не могу поуздано разликовати од оригиналних материјала, жртве стварне уцене сада могу да тврде да су прави артефакти лажни, што им даје уверљиво порицање. Ефекат је поништавање кредибилитета постојећих материјала за уцене, што брише лојалност уцењивачима и уништава контролу уцењивача. Овај феномен се може назвати „уцењивачка инфлација“, јер „девалвира“ стварну уцену, чинећи је безвредном.[63] Могуће је користити стандардни GPU хардвер са малим софтверским програмом за генерисање овог уцењивачког садржаја за било који број субјеката у огромним количинама, повећавајући понуду лажног садржаја за уцене неограничено и на веома скалабилан начин.[64]

У извештају америчке Конгресне истраживачке службе упозорава се да би се дипфејк могао користити за уцену изабраних званичника или оних који имају приступ поверљивим информацијама у сврхе шпијунаже или утицаја .[65]

Порнографија уреди

У 2017, Дипфејк порнографија се значајно појавила на интернету, посебно на Reddit-у .[66] Од 2019. године, многи дипфејкови на интернету садрже порнографију женских славних личности чија се сличност обично користи без њиховог пристанка.[67] У извештају који је у октобру 2019. објавила холандска компанија за сајбер безбедност Deeptrace, процењено је да је 96% свих дипфејк-ова на мрежи порнографија.[68] Од 2018. године, дипфејк Дејзи Ридли први је привукао пажњу,[66] између осталог.[69][70][71] Од октобра 2019, већина дипфејк тема на интернету биле су британске и америчке глумице.[67] Међутим, око четвртине испитаника су Јужнокорејци, од којих су већина К-поп звезде.[67][72]

У јуну 2019. објављена је Windows и Linux апликација за преузимање под називом DeepNude која је користила неуронске мреже, посебно генеративне супарничке мреже, за уклањање одеће са слика жена. Апликација је имала и плаћену и неплаћену верзију, а плаћена верзија коштала је 50 долара.[73][74] Креатори су 27. јуна уклонили апликацију и вратили новац потрошачима.[75]

Политика уреди

Дипфејк је коришћен за лажно представљање познатих политичара у видео снимцима.

  • Од 2018. у засебним видео снимцима, лице аргентинског председника Маурисија Макрија замењено је лицем Адолфа Хитлера, а лице Ангеле Меркел замењено је лицем Доналда Трампа .[76][77]
  • У америчкој председничкој кампањи 2020. године појавиле су се многе дипфејк ствари које тврде да је Џо Бајден у когнитивном паду: да је заспао током интервјуа, изгубио се и погрешно изговорио све поткрепљене гласине о његовом паду.[78][79]
  • У априлу 2018, Џордан Пил је сарађивао са Буззфеед-ом како би направио дипфејк Барака Обаме са Пиловим гласом; служила је као најава јавног сервиса за повећање свести о дипфејку.[80]
  • У јануару 2019, KCPQ чланица Fox -а емитовала је лажну Трампову слику током његовог обраћања у Овалној канцеларији, исмевајући његов изглед и боју коже (и након тога отпустила запосленог за који се сматра да је одговоран за видео).[81]
  • Током предизборне кампање за Законодавну скупштину Делхија 2020., Delhi Bharatiya Janata Party је користила сличну технологију за дистрибуцију верзије огласа кампање на енглеском језику од стране њеног лидера Маноја Тиварија, преведеног на Харианви за циљање гласача Харијане . Снимање гласа је обезбедио глумац, а вештачка интелигенција обучена коришћењем видео записа Tiwari говора је коришћена за синхронизацију видео снимка са новим гласом. Члан партијског особља описао је то као „позитивну“ употребу дипфејк технологије, која им је омогућила да „убедљиво приступе циљној публици чак и ако кандидат не говори језиком бирача“.[82]
  • У априлу 2020, белгијски огранак Extinction Rebellion- а објавио је дипфејк видео белгијске премијерке Софи Вилмес на Фејсбуку.[83] Видео је промовисао могућу везу између крчења шума и ЦОВИД-19 . Имао је више од 100.000 прегледа у року од 24 сата и добио је много коментара. На Фејсбук страници на којој се видео појавио, многи корисници протумачили су видео као оригиналан.[84]
  • Бруно Сартори је 2020. пародирао политичаре као што су Жаир Болсонаро и Доналд Трамп .[85]
  • У јуну 2019. Комитет за обавештајне послове Представничког дома Конгреса Сједињених Држава одржао је саслушања о потенцијалној злонамерној употреби дипфејка за утицај на изборе.[86]
  • У априлу 2021. политичарима у низу европских земаља су се обратили шаљивџије Вован и Лексус, које критичари оптужују да раде за руску државу. Они су лажно представљали Леонида Волкова, руског опозиционог политичара и шефа штаба кампање руског опозиционог лидера Алексеја Наваљног, наводно путем дипефјк технологије.[87][88][89][90] Међутим, пар је за The Verge рекао да нису користили дипфејк, већ су само користили look-alike.[91]

Уметност уреди

У марту 2018. мултидисциплинарни уметник Joseph Ayerle објавио је видео рад Un'emozione per sempre 2.0 (Енглески превод: The Italian Game). Уметник је радио са дипфејк технологијом како би направио глумицу са вештачком интелигенцијом, синтетичку верзију филмске звезде из 80-их Орнеле Мути, која путује кроз време од 1978. до 2018. Технолошки институт Масачусетса упутио је ово уметничко дело у студију „Колективна мудрост“.[92] Уметник је користио путовање кроз време Орнеле Мути да истражи генерацијска размишљања, истовремено истражујући питања о улози провокације у свету уметности.[93] За техничку реализацију Ayerle је користио сцене фотомодела Кендал Џенер . Програм је заменио лице Џенер лицем Орнеле Мути направљено путем вештачке интелигенције. Као резултат тога, АИ глумица има лице италијанске глумице Орнеле Мути и тело Кендал Џенер.

Дипфејк се нашироко користи у сатири или за исмевање познатих личности и политичара. Веб серија Sassy Justice из 2020, коју су креирали Треј Паркер и Мет Стоне, у великој мери приказује употребу лажирања јавних личности за исмевање актуелних догађаја и подизање свести о дипфејк технологији.[94]

Глума уреди

Било је спекулација о томе да се дипфејк користи за креирање дигиталних глумаца за будуће филмове. Дигитално конструисани/измењени људи су већ коришћени у филмовима раније, а дипфејк би могао да допринесе новом развоју у блиској будућности.[95] Дипфејк технологију су фанови већ користили за уметање лица у постојеће филмове, као што је уметање младог лица Харисона Форда на лице Хана Солоа у Соло: Прича о ратовима звезда,[96] а технике сличне онима које користи дипфејк су коришћене за глуму принцезе Леје и Великог Мофа Таркина у Rogue One . [97][98]

Како технологија дипфејк све више напредује, Дизни је побољшао своје визуелне ефекте користећи технологију дипфејк замене лица високе резолуције.[99] Дизни је побољшао своју технологију кроз прогресивну обуку програмирану да идентификује изразе лица, имплементирајући функцију замене лица и понављање како би се стабилизовао и побољшао резултат.[99] Ова технологија дипфејк високе резолуције штеди значајне оперативне и производне трошкове.[100] Дизнијев модел дипфејк генерације може да производи медије генерисане вештачком интелигенцијом у резолуцији 1024 x 1024, за разлику од уобичајених модела који производе медије у резолуцији 256 x 256.[100] Технологија омогућава Дизнију да de-age ликове или оживи преминуле глумце.[101]

Документарни филм Добродошли у Чеченију из 2020. користио је дипфејк технологију да прикрије идентитет интервјуисаних људи, како би их заштитио од одмазде.[102]

Интернет мим уреди

Године 2020. појавио се интернет мим који је користио дипфејк за генерисање видео снимака људи који певају хор „Baka Mitai” (ばかみたい), песме из игре Јакуза 0 у серији видео игрица Јакуза . У серији, меланхоличну песму пева играч у караоке мини игрици . Већина итерација овог мима користи видео из 2017. који је поставио корисник Dobbsyrules, који уснама синхронизује песму, као шаблон.[103][104]

Друштвени медији уреди

Дипфејк је почео да се користи на популарним платформама друштвених медија, посебно кроз Zao, кинеску дипфејк апликацију која омогућава корисницима да замене своја лица лицима ликова у сценама из филмова и телевизијских емисија као што су Ромео + Јулија и Игра престола .[105] Апликација је првобитно била под надзором својих инвазивних корисничких података и политике приватности, након чега је компанија дала изјаву у којој тврди да ће поново ипитати политику.[106] У јануару 2020. Фејсбук је објавио да уводи нове мере за супротстављање томе на својим платформама.[107]

Истраживачка служба Конгреса је цитирала неодређене доказе који показују да су страни обавештајни оперативци користили дипфејк за креирање налога на друштвеним мрежама у сврху регрутовања појединаца са приступом поверљивим информацијама .[65]

Лутке од чарапа уреди

Дипфејк фотографије се могу користити за креирање лутака од чарапа, непостојећих људи, који су активни и на мрежи и у традиционалним медијима. Чини се да је дипфејк фотографија направљена заједно са легендом за очигледно непостојећу особу по имену Оливер Тејлор, чији је идентитет описан као студент универзитета у Уједињеном Краљевству. Личност Оливера Тејлора дала је своје мишљење у неколико новина и била је активна у онлајн медијима нападајући британског правног академика и његову супругу, као „симпатизере терориста“. Академик је привукао међународну пажњу 2018. године када је покренуо тужбу у Израелу против NSO, компаније за надзор, у име људи у Мексику који су тврдили да су жртве NSО-ове технологије хаковања телефона . Ројтерс је могао да пронађе само оскудне евиденције за Оливера Тејлора, а „његов” универзитет није имао евиденцију о њему. Многи стручњаци су се сложили да је профилна фотографија лажна. Неколико новина није повукло чланке који су му приписани нити их уклонило са својих веб страница. Страхује се да су такве технике ново бојно поље у дезинформацијама .[108]

Колекције дипфејк фотографија непостојећих људи на друштвеним мрежама такође су распоређене као део израелске партизанске пропаганде. На Фејсбук страници „Zionist Spring“ објављене су фотографије непостојећих особа заједно са њиховим „сведочењима“ која наводно објашњавају зашто су напустили своју левичарску политику и пригрлили десницу, а страница је такође садржала велики број постова од премијера Израела Benjamin Netanyahu и његовог сина и из других израелских десничарских извора. Изгледа да су фотографије генерисане технологијом „синтезе људске слике ", компјутерским софтвером који узима податке са фотографија стварних људи да би произвео реалистичну сложену слику непостојеће особе. У већем делу „сведочења“, разлог за прихватање политичке деснице био је шок сазнања о наводном подстицању на насиље против премијера. Десничарски израелски телевизијски емитери тада су емитовали „сведочење“ ових непостојећих особа на основу чињенице да су се „делили“ на мрежи. Емитери су емитовали причу, иако емитери нису могли да пронађу такве људе, уз објашњење „Зашто је порекло важно?“ Други лажни профили на Фејсбуку – профили фиктивних појединаца – садржали су материјал који је наводно садржао такво хушкање против премијера деснице, на шта се премијер жалио да постоји план за његово убиство.[109][110]

Забринутости уреди

Превара уреди

Аудио дипфејк су коришћени као део превара социјалног инжењеринга, заваравајући људе да мисле да добијају упутства појединца од поверења.[111] 2019. године, извршни директор енергетске компаније са седиштем у Великој Британији је преварен телефоном када му је наређено да пребаци 220.000 евра на рачун у мађарској банци од стране појединца који је користио аудио дипфејк технологију да би имитирао глас извршног директора матичне компаније.[112]

Кредибилитет и аутентичност уреди

Иако је лажних фотографија дуго било у изобиљу, лажирање филмова је било теже, а присуство дипфејк слика повећава потешкоће у класификовању видео записа као оригиналних или не.[76] Истраживач вештачке интелигенције Алекс Чампандард рекао је да људи треба да знају колико брзо ствари могу да се покваре дипфејк технологијом и да проблем није технички, већ проблем који треба решити поверењем у информације и новинарство.[76] Дипфејк се може искористити за клевету, лажно представљање и ширење дезинформација.[113] Примарна замка је да би човечанство могло пасти у доба у којем се више не може утврдити да ли садржај медија одговара истини.[76]

Слично томе, ванредни професор рачунарских наука Хао Ли са Универзитета Јужне Калифорније наводи да ће дипфејк креиран за злонамерну употребу, као што су лажне вести, бити још штетнији ако се ништа не учини да се шири свест о дипфејк технологији.[114] Ли је предвидео да ће прави видео снимци и дипфејк постати неприметни већ за пола године, од октобра 2019, због брзог напретка у области вештачке интелигенције и компјутерске графике.[114]

Бивши Гугл цар за преваре Шуман Госемајумдер назвао је дипфејк област од „друштвене бриге“ и рекао да ће они неизбежно еволуирати до тачке у којој се могу аутоматски генерисати, а појединац би могао да користи ту технологију за производњу милиона дипфејк видео снимака.[115]

Последице дипфејк-а нису довољно значајне да дестабилизују цео систем власти; међутим, дипфејк поседује способност да страшно оштети појединачне ентитете.[116] То је зато што је дипфејк често усмерен на једну особу и/или њихов однос према другима у нади да ће створити наратив који је довољно моћан да утиче на јавно мњење или уверења. Ово се може урадити помоћу дипфејк гласовног пхисхинга, који манипулише звуком да би се креирали лажни телефонски позиви или разговори.[116] Још један начин коришћења дипфек-а су измишљене приватне примедбе, које манипулишу медијима да пренесу појединце који износе штетне коментаре.[116]

У септембру 2020. Мајкрософт је објавио да развија софтверски алат за детекцију Дипфејка.[117]

Пример догађаја уреди

Исечак из говора Ненси Пелоси у Центру за амерички напредак одржан 22. маја 2019. је успорен, поред тога што је измењена висина тона, како би изгледало као да је пијана; међутим, критичари тврде да ово није дипфејк, већ плитка лажна, мање софистицирана видео манипулација.[118][119]

Дипфејк Доналда Трампа уреди

Дипфејк Доналда Трампа је лако направљен на основу скеча Џимија Фелона који је извео у емисији NBC's The Tonight Show . У овом скечу (емитованом 4. маја 2016), Џими Фелон се обукао као Доналд Трамп и претварао се да учествује у телефонском разговору са Бараком Обамом, разговарајући на начин који га је представио да се хвали својом примарном победом у Индијани.[120] Дана 5. маја 2019. направљен је дипфејк Доналда Трампа (преузет из овог скеча).[120] У овом дипфејк-у, лице Џимија Фалона је трансформисано у лице Доналда Трампа (аудио је остао исти). Овај дипфејк видео је поставио на Јутјуб оснивач Дипфејка са комичном намером.

Барак Обама дипфејк уреди

Амерички глумац Џордан Пил, BuzzFeed и Monkeypaw Productions направили су и продуцирали дипфејк Барака Обаме (отпремљен на Јутјуб 17. априла 2018.) који приказује Барака Обаму како псује и прозива Доналда Трампа.[121] У овом дипфејку Пилов глас и уста су трансформисани и изманипулисани у Обамин глас и лице. Намера овог видео снимка је била да прикаже опасне последице и моћ дипфејка, и како дипфејк може натерати било кога да каже било шта.

Ким Џонг-ун уреди

Дипфејк севернокорејског лидера Ким Џонг-уна креирала је нестраначка заговарачка група RepresentUs .[122]

Ким Џонг-ун

Владимир Путин уреди

Дипфејк видео : Владимир Путин упозорава Американце на мешање у изборе и повећање политичких подела

Дипфејк руског председника Владимира Путина такође је креирала нестраначка заговарачка група RepresentUs .[122]

Дипфејк Ким Џонг-уна и Владимира Путина требало је да се јавно емитује као реклама како би се пренела идеја да би мешање ових лидера у америчке изборе било штетно за демократију Сједињених Држава; реклама је такође имала за циљ да шокира Американце да схвате колико је демократија крхка и како медији и вести могу значајно утицати на пут земље без обзира на кредибилитет.[122] Међутим, ове рекламе су укључивале завршни коментар у којем се наводи да снимак није стваран, а рекламе се на крају нису емитовале због страха и осетљивости у погледу тога како би Американци могли да реагују.[122]

Том Круз уреди

Године 2021, на ТикТок -у су објављени реалистични дипфејк видео снимци глумца Тома Круза, који су постали вирални и прикупили више десетина милиона прегледа. Дипфејк видео снимци приказују „двојника генерисаног вештачком интелигенцијом" Круза који ради различите активности као што је играње на голф терену, показивање трика са новчићем и грицкање лизалице. Креатор клипова је рекао да се први пут заинтересовао за дипфејк 2018. године и да је видео његов „креативни потенцијал“.[123][124]

Володимир Зеленски уреди

Дана 16. марта 2022. друштвеним мрежама је кружио дипфејк једноминутни видео на којем украјински председник Володимир Зеленски наизглед говори својим војницима да положе оружје и предају се током руске инвазије на Украјину 2022. године . Руске друштвене мреже су га појачале, али након што је разоткривено, Фејсбук и Јутјуб су га уклонили. Твитер је дозволио видео у твитовима где је разоткривен као лажан, али је рекао да ће бити уклоњен ако буде објављен да би се људи обманули. Хакери су убацили дезинформацију у вести уживо на ТВ станици Украјина 24, а видео се накратко појавио на веб страници те станице поред лажних тврдњи да је Зеленски побегао из главног града своје земље, Кијева. Није одмах било јасно ко је креирао дипфејк, на шта је Зеленски одговорио сопственим видео снимком, рекавши: „Не планирамо да положимо оружје. До наше победе.“ [125]

Одговори уреди

Платформе друштвених медија уреди

Твитер уреди

Твитер предузима активне мере за руковање синтетичким и изманипулисаним медијима на својој платформи. Како би спречио ширење дезинформација, Твитер поставља обавештење на твитове који садрже изманипулисане медије и/или дипфејк који сигнализира гледаоцима да су медији изманипулисани.[126] Такође ће бити упозорење које ће се појавити корисницима који планирају да поново твитују, лајкују или се укључе у твит.[126] Твитер ће такође радити на томе да корисницима пружи везу поред твита који садржи изманипулисане или синтетичке медије који се повезују са Твитер моментом или веродостојним чланком вести на сродну тему – као радњу за разоткривање.[126] Твитер такође има могућност да уклони све твитове који садрже дипфејк или изманипулисане медије који могу да нашкоде безбедности корисника.[126] Како би побољшао Твитерово откривање дипфејка и изманипулисаних медија, Твитер је замолио кориснике који су заинтересовани за партнерство са њима да раде на решењима за откривање дипфејка да попуне формулар (који је до 27. новембра 2020.).[127]

Фејсбук уреди

Фејсбук је уложио напоре да подстакне стварање дипфејка како би развио најсавременији софтвер за откривање дипфејка. Фејсбук је био истакнути партнер у организовању Deepfake Detection Challenge (DFDC), одржаног децембра 2019, за 2114 учесника који су генерисали више од 35.000 модела.[128] Модели са најбољим учинком са највећом прецизношћу детекције анализирани су на сличности и разлике; ови налази су области од интереса у даљим истраживањима за побољшање и усавршавање модела детекције дипфејка.[128] Фејсбук је такође навео да ће платформа уклонити медије генерисане вештачком интелигенцијом која се користи за измену говора појединца.[129] Међутим, медији који су уређивани да би се променио ред или контекст речи у нечијој поруци остаће на сајту, али ће бити означени као лажни, јер нису генерисани вештачком интелигенцијом.[129]

Откривање уреди

Већина академских истраживања која окружују дипфејк настоје да открију видео снимке.[130] Најпопуларнија техника је коришћење алгоритама сличних онима који се користе за прављење дипфејк-а за њихово откривање.[130] Препознавањем образаца у начину на који се ствара дипфејк, алгоритам је у стању да покупи суптилне недоследности.[130] Истраживачи су развили аутоматске системе који испитују видео записе на грешке као што су неправилни обрасци трептања осветљења.[12] Ова техника је такође критикована због креирања „ покретног стуба гола “ где у сваком тренутку алгоритми за откривање постају бољи, као и дипфејк.[130] The Deepfake Detection Challenge, чији је домаћин коалиција водећих технолошких компанија, надају се да ће убрзати технологију за идентификацију изманипулисаног садржаја.[131]

Тим на Универзитету у Бафалу објавио је рад у октобру 2020. у којем описује њихову технику коришћења рефлексије светлости у очима оних који су приказани како би уочили дипфејк са великом стопом успеха, чак и без употребе АI алата за детекцију, барем за тренутно.[132]

Други тим који је предводио Wael AbdAlmageed са Visual Intelligence and Multimedia Analytics Laboratory (VIMAL) Института за информационе науке на Универзитету Јужне Калифорније развио је две генерације [133][134] дипфејк детектора заснованих на конволуционим неуронским мрежама . Прва генерација [133] користила је рекурентне неуронске мреже да уочи просторно-временске недоследности да идентификује визуелне артефакте који су остали приликом процеса генерисања дипфејк-а. Алгоритам је архивирао 96% тачности на FaceForensics++; једини дипфејк репер великих размера доступан у то време. Друга генерација [134] користила је дубоке мреже од краја до краја да би разликовала артефакте и семантичке информације о лицу високог нивоа користећи мреже са две гране. Прва грана шири информације о боји док друга грана потискује садржај лица и појачава фреквенције ниског нивоа користећи Лапласов Гаусов (ЛоГ) . Даље, они су укључили нову функцију губитка која учи компактну репрезентацију веродостојних лица, док распршује репрезентације (тј. карактеристике) дипфејка. VIMAL-ов приступ показао је врхунске перформансе на FaceForensics++ и Celeb-DF benchmark-овима, а 16. марта 2022. (истог дана објављивања) коришћен је за идентификацију дипфејк-а Володимира Зеленског ван кутије без икакве преквалификације или знања о алгоритму којим је дипфејк креиран.

Друге технике користе blockchain за проверу извора медија.[135] Видео снимци ће морати да буду верификовани кроз књигу пре него што буду приказани на платформама друштвених медија.[135] Са овом технологијом, само видео снимци из поузданих извора би били одобрени, чиме би се смањило ширење могуће штетних дипфејк медија.[135]

Предложено је дигитално потписивање свих видео записа и слика помоћу камера и видео камера, укључујући камере за паметне телефоне, да би се борили против дипфејкова.[136] То омогућава праћење сваке фотографије или видео снимка до оригиналног власника који се може користити за гоњење дисидената.[136]

Интернет реакција уреди

Од 2017. године, Samantha Cole of Vice објавила је серију чланака који покривају вести о дипфејк порнографији.[71][73][137][138][139][139][140][141] 31. јануара 2018. Gfycat је почео да уклања све дипфејкове са свог сајта.[10][139] На Редиту, р/дипфејк субредит је забрањен 7. фебруара 2018, због кршења политике „ненамерне порнографије“.[142][143][144][145][146] Истог месеца, представници Твитера су изјавили да ће суспендовати налоге за које се сумња да објављују дипфејк садржаје без пристанка.[140] Сајт за ћаскање Дискорд је у прошлости предузео мере против дипфејка,[147] и заузео је општи став против дипфејка.[10][148] У септембру 2018. Гугл је додао „ненамерне синтетичке порнографске слике“ на своју листу забрањених, дозвољавајући свакоме да затражи блок резултата који приказује њихове лажне актове.[149] У фебруару 2018. Порнхaб је рекао да ће забранити дипфејк видео записе на својој веб страници јер се сматра „садржајем без сагласности“ који крши њихове услове коришћења.[138] Такође су раније изјавили за Mashable да ће уклонити садржај означен као дипфејк.[150] Писци са матичне плоче из Buzzfeed News-а известили су да је претрага „deepfakes“ на Порнхабу и даље враћа више недавних дипфејк видео снимака.[138]

Фејсбук је раније изјавио да неће уклањати дипфејк са својих платформи.[151] Уместо тога, треће стране ће видео снимке означавати као лажне, а затим ће имати смањен приоритет у фидовима корисника.[137] Овај одговор је подстакнут у јуну 2019. након што је на Фејсбуку и Инстаграму кружио дипфејк са видео снимком Марка Закерберга из 2016.[151]

У мају 2022. године, Гугл је званично променио услове коришћења својих Jupyter Notebook сарадника, забрањујући коришћење њиховог колаб сервиса у сврху креирања дипфејка.[152] Ово се догодило неколико дана након што је објављен чланак VICE-а, у којем се тврди да је „већина дипфејка порнографија без пристанка“ и да је главна употреба популарног софтвера за дипфејк DeepFaceLab (DFL), „најважнија технологија која покреће огромну већину ове генерације дипфејка“ који се често користио у комбинацији са Гугл колабс, био би стварање порнографије без сагласности, указујући на чињеницу да је међу многим другим добро познатим примерима имплементације DFL-а трећих страна, као што су дипфејк поручен од The Walt Disney Company, званични музички спотови и веб серија Sassy Justice креатора South Park, DFL-ова GitHub страница такође има везу са дипфејк порно веб страницом Mr. Deepfake и учесници DFL Дискорд сервера такође учествују на Mr. Deepfakes .[153]

Правни одговор уреди

У Сједињеним Државама, било је неких одговора на проблеме које представљају дипфејк. 2018. године, Закон о забрани злонамерног дипфејка представљен је Сенату САД,[154] а 2019. Закон о одговорности ДИПФЕЈК уведен је у Представнички дом .[155] Неколико држава је такође увело законе у вези са дипфејком, укључујући Вирџинију,[156] Тексас, Калифорнију и Њујорк.[157] Гувернер Калифорније Гавин Њусом је 3. октобра 2019. потписао законе Скупштине бр. 602 и бр. 730.[158][159] Скупштински закон бр. 602 даје појединцима који су мета сексуално експлицитног дипфејк садржаја који је направљен без њиховог пристанка право за покретање поступка против креатора садржаја.[158] Скупштински закон бр. 730 забрањује дистрибуцију злонамерних лажних аудио или визуелних медија који циљају на кандидата који се кандидује за јавну функцију у року од 60 дана од њиховог избора.[159]

У Сједињеним Државама, било је неких одговора на проблеме које представљају дипфејк. 2018. године, Закон о забрани злонамерног дипфејка представљен је Сенату САД,[160] а 2019. Закон о одговорности ДИПФЕЈК уведен је у Представнички дом .[155] Неколико држава је такође увело законе у вези са дипфејком, укључујући Вирџинију,[156] Тексас, Калифорнију и Њујорк.[161] Гувернер Калифорније Гавин Њусом је 3. октобра 2019. потписао законе Скупштине бр. 602 и бр. 730.[158][159] Скупштински закон бр. 602 даје појединцима који су мета сексуално експлицитног дипфејк садржаја који је направљен без њиховог пристанка право за покретање поступка против креатора садржаја.[158] Скупштински закон бр. 730 забрањује дистрибуцију злонамерних лажних аудио или визуелних медија који циљају на кандидата који се кандидује за јавну функцију у року од 60 дана од њиховог избора.[159]

Кина је у новембру 2019. објавила да би дипфејк и други синтетички лажни снимци требало да имају јасно обавештење о њиховој лажности почевши од 2020. Непоштовање може се сматрати злочином, навела је Кинеска администрација за сајбер простор на својој веб страници.[162] Чини се да кинеска влада задржава право да кривично гони и кориснике и онлајн видео платформе који се не придржавају правила.[163] У Уједињеном Краљевству, произвођачи дипфејк материјала могу бити кривично гоњени због узнемиравања, али постоје позиви да се дипфејк учини посебним злочином;[164] у Сједињеним Државама, где су оптужбе биле различите као што су крађа идентитета, сајбер ухођење и осветничка порнографија, такође се расправљало о концепту свеобухватнијег статута.[149]

У Уједињеном Краљевству, произвођачи дипфејк материјала могу бити кривично гоњени због узнемиравања, али постоје позиви да се дипфејк учини посебним злочином;[164] у Сједињеним Државама, где су оптужбе биле различите као што су крађа идентитета, сајбер ухођење и осветничка порнографија, такође се расправљало о концепту свеобухватнијег статута.[149]

У Канади, Комуникациони безбедносни естаблишмент објавио је извештај у којем се наводи да се дипфејк ствари могу користити за мешање у канадску политику, посебно за дискредитацију политичара и утицај на бираче.[165][166] Као резултат тога, постоји више начина на које грађани Канаде могу да се изборе са дипфејком ако су они на мети.[167]

Одговор DARPA-e уреди

У 2018. години, Агенција за напредне истраживачке пројекте у области одбране (DARPA) финансирала је пројекат у коме ће се појединци такмичити у креирању видео записа, звука и слика које генерише вештачка интелигенција, као и аутоматизованих алата за откривање ових дипфејкова.[168] DARPA је 2019. године организовала „дан предлагача“ за пројекат повезан са Програмом семантичке форензике где су истраживачи били вођени да спрече ширење вируса медија којима манипулише вештачка интелигенција.[169] DARPA и Програм семантичке форензике такође су радили заједно на откривању медија којима манипулише вештачка интелигенција кроз напоре у обучавању рачунара да користе здрав разум и логичко закључивање.[169] Године 2020. DARPA је креирала програм медијске форензике (МедиФор), да открије и ублажи све већу штету коју наносе дипфејк и медији генерисани од вештачке интелигенције, да пружи информације о томе како су медији створени и да се позабави и нагласи последичну улогу дипфејка и његовог утицаја. по доношењу одлуке.[170]

У популарној култури уреди

  • У издању часописа Analog средином децембра 1986. објављена је новела Џека Водамса „Picaper“. Његова радња се врти око дигитално побољшаних или дигитално генерисаних видео записа које су произвели вешти хакери који служе бескрупулозним адвокатима и политичким личностима.[171]
  • Филм „Човек који трчи“ из 1987. са Арнолдом Шварценегером у главној улози приказује аутократску владу која користи компјутере да дигитално замени лица глумаца лицима тражених бегунаца како би изгледало да су бегунци неутралисани.
  • У техно-трилеру Филипа Кера A Philosophical Investigation из 1992. „Wittgenstein”, главни лик и серијски убица, користи и софтвер сличан дипфејк-у и одело виртуелне стварности за секс са аватаром Isadora „Jake" Jakowicz, женски полицијски поручник којој је додељено да га ухвати.[172]
  • Филм Rising Sun из 1993. са Шоном Конеријем и Веслијем Снајпсом у главним улогама приказује још једног лика, Jingo Asakuma који открива да је компјутерски диск дигитално изменио лични идентитет да би садржавао конкурента.
  • Дипфејк технологија је део радње драме BBC One 2019. The Capture. Серија прати бившег британског војника Шона Емерија, који је оптужен за напад и отмицу свог адвоката. Стручно фиксирани снимци CCTV-а се користе да би га наместили и довели полицију која га истражује.[171][173]
  • Al Davis против NFL-а: Наративна структура овог документарца из 2021, део ESPN-ових 30 for 30 документарних серијала, користи дипфејк верзије два централна лика филма, оба покојна — Al Davis, који је поседовао Las Vegas Raiders током мандата тима у Окланду и Лос Анђелесу, и Pete Rozelle, NFL комесар који се често сукобљавао са Дејвисом.[174][175]
  • Дипфејк технологија је представљена у „Impawster Syndrome“, 57. епизоди канадске полицијске серије Хадсон и Рекс, која је први пут емитована 6. јануара 2022. године, у којој се истражује члан полицијског тима Сент Џона због сумње да је извршио пљачку и напад због лажираних снимака CCTV-а на којима се користи његов лик.[176]
  • Користећи дипфејк технологију у свом музичком споту за свој сингл из 2022, „The Heart Part 5“, музичар Кендрик Ламар се трансформисао у фигуре које личе на Нипсеја Хасла, О.Ј. Симпсона и Кање Веста, између осталих. Дипфејк технологију у видеу креирао је Deep Voodoo, студио који предводе Треј Паркер и Мет Стоун, који су креирали South Park.

Види још уреди

Референце уреди

  1. ^ Brandon, John (2018-02-16). „Terrifying high-tech porn: Creepy 'deepfake' videos are on the rise”. Fox News (на језику: енглески). Архивирано из оригинала 15. 6. 2018. г. Приступљено 2018-02-20. 
  2. ^ „Prepare, Don't Panic: Synthetic Media and Deepfakes”. witness.org. Архивирано из оригинала 2. 12. 2020. г. Приступљено 25. 11. 2020. 
  3. ^ а б Kietzmann, J.; Lee, L. W.; McCarthy, I. P.; Kietzmann, T. C. (2020). „Deepfakes: Trick or treat?”. Business Horizons. 63 (2): 135—146. doi:10.1016/j.bushor.2019.11.006. 
  4. ^ Schwartz, Oscar (12. 11. 2018). „You thought fake news was bad? Deep fakes are where truth goes to die”. The Guardian (на језику: енглески). Архивирано из оригинала 16. 6. 2019. г. Приступљено 14. 11. 2018. 
  5. ^ а б в г Charleer, Sven (2019-05-17). „Family fun with deepfakes. Or how I got my wife onto the Tonight Show”. Medium (на језику: енглески). Архивирано из оригинала 11. 2. 2018. г. Приступљено 2019-11-08. 
  6. ^ „What Are Deepfakes & Why the Future of Porn is Terrifying”. Highsnobiety (на језику: енглески). 2018-02-20. Архивирано из оригинала 14. 7. 2021. г. Приступљено 2018-02-20. 
  7. ^ „Experts fear face swapping tech could start an international showdown”. The Outline (на језику: енглески). Архивирано из оригинала 16. 1. 2020. г. Приступљено 2018-02-28. 
  8. ^ Roose, Kevin (2018-03-04). „Here Come the Fake Videos, Too”. The New York Times (на језику: енглески). ISSN 0362-4331. Архивирано из оригинала 18. 6. 2019. г. Приступљено 2018-03-24. 
  9. ^ Schreyer, Marco; Sattarov, Timur (октобар 2019). „Adversarial Learning of Deepfakes in Accounting” (на језику: енглески). arXiv:1910.03810  [cs.LG]. 
  10. ^ а б в Ghoshal, Abhimanyu (2018-02-07). „Twitter, Pornhub and other platforms ban AI-generated celebrity porn”. The Next Web (на језику: енглески). Архивирано из оригинала 20. 12. 2019. г. Приступљено 2019-11-09. 
  11. ^ Clarke, Yvette D. (2019-06-28). „H.R.3230 - 116th Congress (2019-2020): Defending Each and Every Person from False Appearances by Keeping Exploitation Subject to Accountability Act of 2019”. www.congress.gov. Архивирано из оригинала 17. 12. 2019. г. Приступљено 2019-10-16. 
  12. ^ а б в Harwell, Drew (12. 6. 2019). „Top AI researchers race to detect 'deepfake' videos: 'We are outgunned'. The Washington Post (на језику: енглески). Архивирано из оригинала 31. 10. 2019. г. Приступљено 2019-11-08. 
  13. ^ Sanchez, Julian (8. 2. 2018). „Thanks to AI, the future of 'fake news' is being pioneered in homemade porn”. NBC News (на језику: енглески). Архивирано из оригинала 9. 11. 2019. г. Приступљено 2019-11-08. 
  14. ^ а б в Porter, Jon (2019-09-02). „Another convincing deepfake app goes viral prompting immediate privacy backlash”. The Verge (на језику: енглески). Архивирано из оригинала 3. 9. 2019. г. Приступљено 2019-11-08. 
  15. ^ Bode, Lisa; Lees, Dominic; Golding, Dan (2021-07-29). „The Digital Face and Deepfakes on Screen”. Convergence: The International Journal of Research into New Media Technologies. 27 (4): 849—854. ISSN 1354-8565. doi:10.1177/13548565211034044. 
  16. ^ а б Holliday, Christopher (2021-07-26). „Rewriting the stars: Surface tensions and gender troubles in the online media production of digital deepfakes”. Convergence: The International Journal of Research into New Media Technologies. 27 (4): 899—918. ISSN 1354-8565. doi:10.1177/13548565211029412. 
  17. ^ Gingrich, Oliver M. (2021-07-05). „GENDER*UCK: Reframing gender & media art”. Proceedings of EVA London 2021 (EVA 2021). doi:10.14236/ewic/EVA2021.25. 
  18. ^ Fletcher, John (2018). „Deepfakes, Artificial Intelligence, and Some Kind of Dystopia: The New Faces of Online Post-Fact Performance”. Theatre Journal (на језику: енглески). 70 (4): 455—471. ISSN 1086-332X. doi:10.1353/tj.2018.0097. 
  19. ^ Öhman, Carl (2020-06-01). „Introducing the pervert's dilemma: a contribution to the critique of Deepfake Pornography”. Ethics and Information Technology (на језику: енглески). 22 (2): 133—140. ISSN 1572-8439. doi:10.1007/s10676-019-09522-1. 
  20. ^ van der Nagel, Emily (2020-10-01). „Verifying images: deepfakes, control, and consent”. Porn Studies (на језику: енглески). 7 (4): 424—429. ISSN 2326-8743. doi:10.1080/23268743.2020.1741434. 
  21. ^ Fallis, Don (2021-12-01). „The Epistemic Threat of Deepfakes”. Philosophy & Technology (на језику: енглески). 34 (4): 623—643. ISSN 2210-5433. PMC 7406872 . PMID 32837868. doi:10.1007/s13347-020-00419-2. 
  22. ^ Chesney, Robert; Citron, Danielle Keats (2018). „Deep Fakes: A Looming Challenge for Privacy, Democracy, and National Security”. SSRN Electronic Journal (на језику: енглески). ISSN 1556-5068. doi:10.2139/ssrn.3213954. 
  23. ^ Yadlin-Segal, Aya; Oppenheim, Yael (фебруар 2021). „Whose dystopia is it anyway? Deepfakes and social media regulation”. Convergence: The International Journal of Research into New Media Technologies (на језику: енглески). 27 (1): 36—51. ISSN 1354-8565. doi:10.1177/1354856520923963. 
  24. ^ Hwang, Yoori; Ryu, Ji Youn; Jeong, Se-Hoon (2021-03-01). „Effects of Disinformation Using Deepfake: The Protective Effect of Media Literacy Education”. Cyberpsychology, Behavior, and Social Networking. 24 (3): 188—193. ISSN 2152-2715. doi:10.1089/cyber.2020.0174. 
  25. ^ Hight, Craig (2021-11-12). „Deepfakes and documentary practice in an age of misinformation”. Continuum (на језику: енглески): 1—18. ISSN 1030-4312. doi:10.1080/10304312.2021.2003756. 
  26. ^ Hancock, Jeffrey T.; Bailenson, Jeremy N. (2021-03-01). „The Social Impact of Deepfakes”. Cyberpsychology, Behavior, and Social Networking (на језику: енглески). 24 (3): 149—152. ISSN 2152-2715. doi:10.1089/cyber.2021.29208.jth. 
  27. ^ de Seta, Gabriele (2021-07-30). „Huanlian, or changing faces: Deepfakes on Chinese digital media platforms”. Convergence: The International Journal of Research into New Media Technologies (на језику: енглески). 27 (4): 935—953. ISSN 1354-8565. doi:10.1177/13548565211030185. 
  28. ^ а б Bregler, Christoph; Covell, Michele; Slaney, Malcolm (1997). „Video Rewrite: Driving Visual Speech with Audio”. Proceedings of the 24th Annual Conference on Computer Graphics and Interactive Techniques. 24: 353—360. doi:10.1145/258734.258880. 
  29. ^ а б в Suwajanakorn, Supasorn; Seitz, Steven M.; Kemelmacher-Shlizerman, Ira (јул 2017). „Synthesizing Obama: Learning Lip Sync from Audio”. ACM Trans. Graph. 36 (4): 95:1—95:13. doi:10.1145/3072959.3073640. 
  30. ^ а б в Thies, Justus; Zollhöfer, Michael; Stamminger, Marc; Theobalt, Christian; Nießner, Matthias (јун 2016). „Face2Face: Real-Time Face Capture and Reenactment of RGB Videos”. 2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). IEEE: 2387—2395. ISBN 9781467388511. arXiv:2007.14808 . doi:10.1109/CVPR.2016.262. 
  31. ^ а б Farquhar, Peter (2018-08-27). „An AI program will soon be here to help your deepface dancing – just don't call it deepfake”. Business Insider Australia (на језику: енглески). Архивирано из оригинала 10. 4. 2019. г. Приступљено 2018-08-27. 
  32. ^ „Deepfakes for dancing: you can now use AI to fake those dance moves you always wanted”. The Verge. Архивирано из оригинала 17. 5. 2019. г. Приступљено 2018-08-27. 
  33. ^ Mirsky, Yisroel; Mahler, Tom; Shelef, Ilan; Elovici, Yuval (2019). CT-GAN: Malicious Tampering of 3D Medical Imagery using Deep Learning (на језику: енглески). стр. 461—478. ISBN 978-1-939133-06-9. Архивирано из оригинала 20. 6. 2020. г. Приступљено 18. 6. 2020. 
  34. ^ „Researchers Demonstrate Malware That Can Trick Doctors Into Misdiagnosing Cancer”. Gizmodo (на језику: енглески). 2019-04-03. Приступљено 2022-06-03. 
  35. ^ Mirsky, Yisroel; Lee, Wenke (2020-05-12). „The Creation and Detection of Deepfakes: A Survey”. ACM Computing Surveys. arXiv:2004.11138 . doi:10.1145/3425780. 
  36. ^ Karnouskos, Stamatis (2020). „Artificial Intelligence in Digital Media: The Era of Deepfakes” (PDF). IEEE Transactions on Technology and Society. 1 (3): 1. doi:10.1109/TTS.2020.3001312. Архивирано из оригинала (PDF) 14. 7. 2021. г. Приступљено 9. 7. 2020. 
  37. ^ а б Cole, Samantha (24. 1. 2018). „We Are Truly Fucked: Everyone Is Making AI-Generated Fake Porn Now”. Vice. Архивирано из оригинала 7. 9. 2019. г. Приступљено 4. 5. 2019. 
  38. ^ Haysom, Sam (31. 1. 2018). „People Are Using Face-Swapping Tech to Add Nicolas Cage to Random Movies and What Is 2018”. Mashable. Архивирано из оригинала 24. 7. 2019. г. Приступљено 4. 4. 2019. 
  39. ^ „r/SFWdeepfakes”. Reddit. Архивирано из оригинала 9. 8. 2019. г. Приступљено 12. 12. 2018. 
  40. ^ Hathaway, Jay (8. 2. 2018). „Here's where 'deepfakes,' the new fake celebrity porn, went after the Reddit ban”. The Daily Dot. Архивирано из оригинала 6. 7. 2019. г. Приступљено 22. 12. 2018. 
  41. ^ „What is a Deepfake and How Are They Made?”. Online Tech Tips (на језику: енглески). 2019-05-23. Архивирано из оригинала 8. 11. 2019. г. Приступљено 2019-11-08. 
  42. ^ Robertson, Adi (2018-02-11). „I'm using AI to face-swap Elon Musk and Jeff Bezos, and I'm really bad at it”. The Verge (на језику: енглески). Архивирано из оригинала 24. 3. 2018. г. Приступљено 2019-11-08. 
  43. ^ „Deepfakes web | The best online faceswap app”. Deepfakes web. Архивирано из оригинала 14. 7. 2021. г. Приступљено 2021-02-21. 
  44. ^ „Faceswap is the leading free and Open Source multi-platform Deepfakes software.”. 15. 10. 2019. Архивирано из оригинала 31. 5. 2021. г. Приступљено 14. 7. 2021 — преко WordPress. 
  45. ^ „DeepFaceLab is a tool that utilizes machine learning to replace faces in videos. Includes prebuilt ready to work standalone Windows 7,8,10 binary (look readme.md).: iperov/DeepFaceLab”. 19. 6. 2019. Архивирано из оригинала 9. 5. 2019. г. Приступљено 6. 3. 2019 — преко GitHub. 
  46. ^ Chandler, Simon. „Why Deepfakes Are A Net Positive For Humanity”. Forbes (на језику: енглески). Архивирано из оригинала 16. 11. 2020. г. Приступљено 2020-11-03. 
  47. ^ Pangburn, D. J. (2019-09-21). „You've been warned: Full body deepfakes are the next step in AI-based human mimicry”. Fast Company (на језику: енглески). Архивирано из оригинала 8. 11. 2019. г. Приступљено 2019-11-08. 
  48. ^ Lyons, Kim (29. 1. 2020). „FTC says the tech behind audio deepfakes is getting better”. The Verge. Архивирано из оригинала 30. 1. 2020. г. Приступљено 8. 2. 2020. 
  49. ^ „Audio samples from "Transfer Learning from Speaker Verification to Multispeaker Text-To-Speech Synthesis". google.github.io. Архивирано из оригинала 14. 11. 2019. г. Приступљено 8. 2. 2020. 
  50. ^ Jia, Ye; Zhang, Yu (2. 1. 2019). „Transfer Learning from Speaker Verification to Multispeaker Text-To-Speech Synthesis”. arXiv:1806.04558  [cs.CL]. 
  51. ^ „TUM Visual Computing: Prof. Matthias Nießner”. www.niessnerlab.org. Архивирано из оригинала 21. 2. 2020. г. Приступљено 8. 2. 2020. 
  52. ^ „Full Page Reload”. IEEE Spectrum: Technology, Engineering, and Science News. 11. 12. 2019. Архивирано из оригинала 26. 6. 2020. г. Приступљено 8. 2. 2020. 
  53. ^ „Contributing Data to Deepfake Detection Research”. Архивирано из оригинала 5. 2. 2020. г. Приступљено 8. 2. 2020. 
  54. ^ Thalen, Mikael. „You can now deepfake yourself into a celebrity with just a few clicks”. daily dot (на језику: енглески). Архивирано из оригинала 6. 4. 2020. г. Приступљено 2020-04-03. 
  55. ^ Matthews, Zane. „Fun or Fear: Deepfake App Puts Celebrity Faces In Your Selfies”. Kool1079 (на језику: енглески). Архивирано из оригинала 24. 3. 2020. г. Приступљено 2020-03-06. 
  56. ^ „Kanye West, Kim Kardashian and her dad: Should we make holograms of the dead?”. BBC News (на језику: енглески). 2020-10-31. Архивирано из оригинала 15. 11. 2020. г. Приступљено 2020-11-11. 
  57. ^ „Kanye West Gave Kim Kardashian a Hologram of Her Father for Her Birthday”. themodems (на језику: енглески). 2020-10-30. Архивирано из оригинала 11. 11. 2020. г. Приступљено 2020-11-11. 
  58. ^ „Parkland victim Joaquin Oliver comes back to life in heartbreaking plea to voters”. adage.com (на језику: енглески). 2020-10-02. Архивирано из оригинала 11. 11. 2020. г. Приступљено 2020-11-11. 
  59. ^ Zucconi, Alan (2018-03-14). „Understanding the Technology Behind DeepFakes”. Alan Zucconi (на језику: енглески). Архивирано из оригинала 1. 11. 2019. г. Приступљено 2019-11-08. 
  60. ^ „What is a Deepfake?”. Blog - Synthesys (на језику: енглески). 2022-05-03. Приступљено 2022-05-17. 
  61. ^ а б в г д Kan, C. E. (2018-12-10). „What The Heck Are VAE-GANs?”. Medium (на језику: енглески). Архивирано из оригинала 14. 7. 2021. г. Приступљено 2019-11-08. 
  62. ^ а б „These New Tricks Can Outsmart Deepfake Videos—for Now”. Wired (на језику: енглески). ISSN 1059-1028. Архивирано из оригинала 3. 10. 2019. г. Приступљено 2019-11-09. 
  63. ^ Limberg, Peter (2020-05-24). „Blackmail Inflation”. CultState. Архивирано из оригинала 24. 1. 2021. г. Приступљено 2021-01-18. 
  64. ^ „For Kappy”. Telegraph. 2020-05-24. Архивирано из оригинала 24. 1. 2021. г. Приступљено 2021-01-18. 
  65. ^ а б Kelley M. Tayler; Laurie A. Harris (8. 6. 2021). Deep Fakes and National Security (Извештај). Congressional Research Service. стр. 1. Архивирано из оригинала 14. 06. 2022. г. Приступљено 19. 7. 2021. 
  66. ^ а б Roettgers, Janko (2018-02-21). „Porn Producers Offer to Help Hollywood Take Down Deepfake Videos”. Variety (на језику: енглески). Архивирано из оригинала 10. 6. 2019. г. Приступљено 2018-02-28. 
  67. ^ а б в Dickson, E. J. (2019-10-07). „Deepfake Porn Is Still a Threat, Particularly for K-Pop Stars”. Rolling Stone (на језику: енглески). Архивирано из оригинала 30. 10. 2019. г. Приступљено 2019-11-09. 
  68. ^ „The State of Deepfake - Landscape, Threats, and Impact” (PDF). Deeptrace (на језику: енглески). 2019-10-01. Архивирано (PDF) из оригинала 9. 8. 2020. г. Приступљено 2020-07-07. 
  69. ^ Goggin, Benjamin. „From porn to 'Game of Thrones': How deepfakes and realistic-looking fake videos hit it big”. Business Insider. Архивирано из оригинала 8. 11. 2019. г. Приступљено 2019-11-09. 
  70. ^ Lee, Dave (2018-02-03). „'Fake porn' has serious consequences” (на језику: енглески). Архивирано из оригинала 1. 12. 2019. г. Приступљено 2019-11-09. 
  71. ^ а б Cole, Samantha (2018-06-19). „Gfycat's AI Solution for Fighting Deepfakes Isn't Working”. Vice (на језику: енглески). Архивирано из оригинала 8. 11. 2019. г. Приступљено 2019-11-09. 
  72. ^ Zoe, Freni (24. 11. 2019). „Deepfake Porn Is Here To Stay”. Medium. Архивирано из оригинала 10. 12. 2019. г. Приступљено 10. 12. 2019. 
  73. ^ а б Cole, Samantha; Maiberg, Emanuel; Koebler, Jason (26. 6. 2019). „This Horrifying App Undresses a Photo of Any Woman with a Single Click”. Vice. Архивирано из оригинала 2. 7. 2019. г. Приступљено 2. 7. 2019. 
  74. ^ Cox, Joseph (9. 7. 2019). „GitHub Removed Open Source Versions of DeepNude”. Vice Media. Архивирано из оригинала 24. 9. 2020. г. Приступљено 14. 7. 2019. 
  75. ^ „pic.twitter.com/8uJKBQTZ0o”. 27. 6. 2019. Архивирано из оригинала 6. 4. 2021. г. Приступљено 3. 8. 2019. 
  76. ^ а б в г „Wenn Merkel plötzlich Trumps Gesicht trägt: die gefährliche Manipulation von Bildern und Videos”. az Aargauer Zeitung. 2018-02-03. Архивирано из оригинала 13. 4. 2019. г. Приступљено 9. 4. 2018. 
  77. ^ Patrick Gensing. „Deepfakes: Auf dem Weg in eine alternative Realität?”. Архивирано из оригинала 11. 10. 2018. г. Приступљено 9. 4. 2018. 
  78. ^ Carnahan, Dustin (2020-09-16). „Faked videos shore up false beliefs about Biden's mental health”. The Conversation. Приступљено 2022-04-09. 
  79. ^ Parker, Ashley (2020-09-07). „Trump and allies ramp up efforts to spread disinformation and fake news” . The Independent. Приступљено 2022-04-09. 
  80. ^ Romano, Aja (18. 4. 2018). „Jordan Peele's simulated Obama PSA is a double-edged warning against fake news”. Vox. Архивирано из оригинала 11. 6. 2019. г. Приступљено 10. 9. 2018. 
  81. ^ Swenson, Kyle (11. 1. 2019). „A Seattle TV station aired doctored footage of Trump's Oval Office speech. The employee has been fired.”. The Washington Post (на језику: енглески). Архивирано из оригинала 15. 4. 2019. г. Приступљено 11. 1. 2019. 
  82. ^ Christopher, Nilesh (2020-02-18). „We've Just Seen the First Use of Deepfakes in an Indian Election Campaign”. Vice (на језику: енглески). Архивирано из оригинала 19. 2. 2020. г. Приступљено 2020-02-19. 
  83. ^ „#TellTheTruthBelgium”. Extinction Rebellion Belgium (на језику: енглески). Архивирано из оригинала 25. 4. 2020. г. Приступљено 2020-04-21. 
  84. ^ Holubowicz, Gerald (2020-04-15). „Extinction Rebellion s'empare des deepfakes”. Journalism.design (на језику: француски). Архивирано из оригинала 29. 7. 2020. г. Приступљено 2020-04-21. 
  85. ^ „Amabie: the mythical creature making a coronavirus comeback”. The Economist. 2020-04-28. ISSN 0013-0613. Архивирано из оригинала 20. 5. 2021. г. Приступљено 2021-06-03. 
  86. ^ O'Sullivan, Donie (4. 6. 2019). „Congress to investigate deepfakes as doctored Pelosi video causes stir”. CNN. Архивирано из оригинала 29. 6. 2019. г. Приступљено 2019-11-09. 
  87. ^ Roth, Andrew (22. 4. 2021). „European MPs targeted by deepfake video calls imitating Russian opposition”. The Guardian. Приступљено 29. 3. 2022. 
  88. ^ Ivanov, Maxim; Rothrock, Kevin (22. 4. 2021). „Hello, this is Leonid Volkov* Using deepfake video and posing as Navalny's right-hand man, Russian pranksters fool Latvian politicians and journalists into invitation and TV interview”. Meduza. Приступљено 29. 3. 2022. 
  89. ^ „Dutch MPs in video conference with deep fake imitation of Navalny's Chief of Staff”. NL Times. 24. 4. 2021. Приступљено 29. 3. 2022. 
  90. ^ „'Deepfake' Navalny Aide Targets European Lawmakers”. The Moscow Times. 23. 4. 2021. Приступљено 29. 3. 2022. 
  91. ^ Vincent, James (30. 4. 2021). „'Deepfake' that supposedly fooled European politicians was just a look-alike, say pranksters”. The Verge. 
  92. ^ Katerina Cizek, William Uricchio, and Sarah Wolozin: Collective Wisdom | Massachusetts Institute of Technology „Архивирана копија”. Архивирано из оригинала 04. 03. 2020. г. Приступљено 22. 06. 2022. 
  93. ^ „ANSA | Ornella Muti in cortometraggio a Firenze”. 3. 11. 2017. Архивирано из оригинала 27. 2. 2020. г. Приступљено 27. 2. 2020. 
  94. ^ „'South Park' creators launch new deepfake satire series 'Sassy Justice'. NME (на језику: енглески). 2020-10-27. Приступљено 2022-06-07. 
  95. ^ Kemp, Luke (2019-07-08). „In the age of deepfakes, could virtual actors put humans out of business?”. The Guardian (на језику: енглески). ISSN 0261-3077. Архивирано из оригинала 20. 10. 2019. г. Приступљено 2019-10-20. 
  96. ^ Radulovic, Petrana (2018-10-17). „Harrison Ford is the star of Solo: A Star Wars Story thanks to deepfake technology”. Polygon (на језику: енглески). Архивирано из оригинала 20. 10. 2019. г. Приступљено 2019-10-20. 
  97. ^ Winick, Erin. „How acting as Carrie Fisher's puppet made a career for Rogue One's Princess Leia”. MIT Technology Review (на језику: енглески). Архивирано из оригинала 23. 10. 2019. г. Приступљено 2019-10-20. 
  98. ^ „Deepfake Luke Skywalker is another step down a ghoulish CGI path”. British GQ (на језику: енглески). 2022-02-10. Приступљено 2022-06-03. 
  99. ^ а б „High-Resolution Neural Face Swapping for Visual Effects | Disney Research Studios” (на језику: енглески). Архивирано из оригинала 27. 11. 2020. г. Приступљено 2020-10-07. 
  100. ^ а б „Disney's deepfake technology could be used in film and TV”. Blooloop. 21. 7. 2020. Архивирано из оригинала 12. 11. 2020. г. Приступљено 2020-10-07. 
  101. ^ Lindley, Jon A. (2020-07-02). „Disney Ventures Into Bringing Back 'Dead Actors' Through Facial Recognition”. Tech Times (на језику: енглески). Архивирано из оригинала 14. 7. 2021. г. Приступљено 2020-10-07. 
  102. ^ Dazed (2022-02-10). „Will deepfakes rewrite history as we know it?”. Dazed (на језику: енглески). Приступљено 2022-06-03. 
  103. ^ C, Kim (22. 8. 2020). „Coffin Dance and More: The Music Memes of 2020 So Far”. Music Times. Архивирано из оригинала 26. 6. 2021. г. Приступљено 26. 8. 2020. 
  104. ^ Sholihyn, Ilyas (7. 8. 2020). „Someone deepfaked Singapore's politicians to lip-sync that Japanese meme song”. AsiaOne. Архивирано из оригинала 3. 9. 2020. г. Приступљено 26. 8. 2020. 
  105. ^ Damiani, Jesse. „Chinese Deepfake App Zao Goes Viral, Faces Immediate Criticism Over User Data And Security Policy”. Forbes (на језику: енглески). Архивирано из оригинала 14. 9. 2019. г. Приступљено 2019-11-18. 
  106. ^ Porter, Jon (2019-09-02). „Another convincing deepfake app goes viral prompting immediate privacy backlash”. The Verge (на језику: енглески). Архивирано из оригинала 3. 9. 2019. г. Приступљено 2019-11-18. 
  107. ^ „Ahead of Irish and US elections, Facebook announces new measures against 'deepfake' videos”. Independent.ie (на језику: енглески). Архивирано из оригинала 8. 1. 2020. г. Приступљено 2020-01-07. 
  108. ^ Reuters, 15 July 2020, Deepfake Used to Attack Activist Couple Shows New Disinformation Frontier Архивирано 26 септембар 2020 на сајту Wayback Machine
  109. ^ 972 Magazine, 12 August 2020, "'Leftists for Bibi'? Deepfake Pro-Netanyahu Propaganda Exposed: According to a Series of Facebook Posts, the Israeli Prime Minister is Winning over Left-Wing Followers--Except that None of the People in Question Exist" Архивирано 14 август 2020 на сајту Wayback Machine
  110. ^ The Seventh Eye, 9 June 2020, הפורנוגרפיה של ההסתהתומכי נתניהו ממשיכים להפיץ פוסטים מזויפים בקבוצות במדיה החברתית • לצד הטרלות מעלות גיחוך מופצות תמונות שקריות על מנת להגביר את השנאה והפילוג בחברה הישראלית Архивирано 18 август 2020 на сајту Wayback Machine
  111. ^ Statt, Nick (5. 9. 2019). „Thieves are now using AI deepfakes to trick companies into sending them money”. Архивирано из оригинала 15. 9. 2019. г. Приступљено 13. 9. 2019. 
  112. ^ Damiani, Jesse. „A Voice Deepfake Was Used To Scam A CEO Out Of $243,000”. Forbes (на језику: енглески). Архивирано из оригинала 14. 9. 2019. г. Приступљено 2019-11-09. 
  113. ^ „Weaponised deep fakes: National security and democracy on JSTOR”. www.jstor.org (на језику: енглески). Архивирано из оригинала 22. 10. 2020. г. Приступљено 2020-10-21. 
  114. ^ а б „Perfect Deepfake Tech Could Arrive Sooner Than Expected”. www.wbur.org (на језику: енглески). Архивирано из оригинала 30. 10. 2019. г. Приступљено 2019-11-09. 
  115. ^ Sonnemaker, Tyler. „As social media platforms brace for the incoming wave of deepfakes, Google's former 'fraud czar' predicts the biggest danger is that deepfakes will eventually become boring”. Business Insider. Архивирано из оригинала 14. 4. 2021. г. Приступљено 2021-04-14. 
  116. ^ а б в Bateman, Jon (2020). „Summary”. Deepfakes and Synthetic Media in the Financial System: 1—2. Архивирано из оригинала 20. 4. 2021. г. Приступљено 28. 10. 2020. 
  117. ^ Kelion, Leo (септембар 2020). „Deepfake detection tool unveiled by Microsoft”. BBC News. Архивирано из оригинала 14. 4. 2021. г. Приступљено 15. 4. 2021. 
  118. ^ Towers-Clark, Charles. „Mona Lisa And Nancy Pelosi: The Implications Of Deepfakes”. Forbes (на језику: енглески). Архивирано из оригинала 23. 11. 2020. г. Приступљено 2020-10-07. 
  119. ^ „What Is The Difference Between A Deepfake And Shallowfake?”. 21. 4. 2020. Архивирано из оригинала 26. 06. 2022. г. Приступљено 22. 06. 2022. 
  120. ^ а б „The rise of the deepfake and the threat to democracy”. The Guardian (на језику: енглески). Архивирано из оригинала 1. 11. 2020. г. Приступљено 2020-11-03. 
  121. ^ Fagan, Kaylee. „A viral video that appeared to show Obama calling Trump a 'dips---' shows a disturbing new trend called 'deepfakes'. Business Insider. Архивирано из оригинала 22. 9. 2020. г. Приступљено 2020-11-03. 
  122. ^ а б в г „Deepfake Putin is here to warn Americans about their self-inflicted doom”. MIT Technology Review (на језику: енглески). Архивирано из оригинала 30. 10. 2020. г. Приступљено 2020-10-07. 
  123. ^ Rachel Metz. „How a deepfake Tom Cruise on TikTok turned into a very real AI company”. CNN. 
  124. ^ Corcoran, Mark; Henry, Matt (23. 6. 2021). „This is not Tom Cruise. That's what has security experts so worried”. ABC News (на језику: енглески). Приступљено 28. 3. 2022. 
  125. ^ Allyn, Bobby (16. 3. 2022). „Deepfake video of Zelenskyy could be 'tip of the iceberg' in info war, experts warn”. NPR. Приступљено 17. 3. 2022. 
  126. ^ а б в г „Help us shape our approach to synthetic and manipulated media”. blog.twitter.com (на језику: енглески). Архивирано из оригинала 28. 10. 2020. г. Приступљено 2020-10-07. 
  127. ^ „TechCrunch”. TechCrunch (на језику: енглески). Архивирано из оригинала 14. 7. 2021. г. Приступљено 2020-10-07. 
  128. ^ а б „Deepfake Detection Challenge Results: An open initiative to advance AI”. ai.facebook.com (на језику: енглески). Архивирано из оригинала 29. 10. 2020. г. Приступљено 2020-10-07. 
  129. ^ а б Paul, Katie (2020-02-04). „Twitter to label deepfakes and other deceptive media”. Reuters (на језику: енглески). Архивирано из оригинала 10. 10. 2020. г. Приступљено 2020-10-07. 
  130. ^ а б в г Manke, Kara (2019-06-18). „Researchers use facial quirks to unmask 'deepfakes'. Berkeley News (на језику: енглески). Архивирано из оригинала 9. 11. 2019. г. Приступљено 2019-11-09. 
  131. ^ „Join the Deepfake Detection Challenge (DFDC)”. deepfakedetectionchallenge.ai. Архивирано из оригинала 12. 1. 2020. г. Приступљено 2019-11-08. 
  132. ^ Hu, Shu; Li, Yuezun (12. 10. 2020). „Exposing GAN-Generated Faces Using Inconsistent Corneal Specular Highlights”. arXiv:2009.11924  [cs.CV]. 
  133. ^ а б „Google Scholar”. scholar.google.com. Приступљено 2022-04-30. 
  134. ^ а б „Two-branch recurrent network for isolating deepfakes in videos”. scholar.google.com. Приступљено 2022-04-30. 
  135. ^ а б в „The Blockchain Solution to Our Deepfake Problems”. Wired (на језику: енглески). ISSN 1059-1028. Архивирано из оригинала 7. 11. 2019. г. Приступљено 2019-11-09. 
  136. ^ а б Leetaru, Kalev. „Why Digital Signatures Won't Prevent Deep Fakes But Will Help Repressive Governments”. Forbes (на језику: енглески). Архивирано из оригинала 14. 4. 2021. г. Приступљено 2021-02-17. 
  137. ^ а б Cole, Samantha (2019-06-11). „This Deepfake of Mark Zuckerberg Tests Facebook's Fake Video Policies”. Vice (на језику: енглески). Архивирано из оригинала 12. 10. 2019. г. Приступљено 2019-11-09. 
  138. ^ а б в Cole, Samantha (2018-02-06). „Pornhub Is Banning AI-Generated Fake Porn Videos, Says They're Nonconsensual”. Vice (на језику: енглески). Архивирано из оригинала 1. 11. 2019. г. Приступљено 2019-11-09. 
  139. ^ а б в Cole, Samantha (2018-01-31). „AI-Generated Fake Porn Makers Have Been Kicked Off Their Favorite Host”. Vice (на језику: енглески). Архивирано из оригинала 1. 11. 2019. г. Приступљено 2019-11-18. 
  140. ^ а б Cole, Samantha (2018-02-06). „Twitter Is the Latest Platform to Ban AI-Generated Porn”. Vice (на језику: енглески). Архивирано из оригинала 1. 11. 2019. г. Приступљено 2019-11-08. 
  141. ^ Cole, Samantha (11. 12. 2017). „AI-Assisted Fake Porn Is Here and We're All Fucked”. Vice. Архивирано из оригинала 7. 9. 2019. г. Приступљено 19. 12. 2018. 
  142. ^ Böhm, Markus (2018-02-07). „"Deepfakes": Firmen gehen gegen gefälschte Promi-Pornos vor”. Spiegel Online. Архивирано из оригинала 23. 9. 2019. г. Приступљено 2019-11-09. 
  143. ^ barbara.wimmer (8. 2. 2018). „Deepfakes: Reddit löscht Forum für künstlich generierte Fake-Pornos”. futurezone.at (на језику: немачки). Архивирано из оригинала 8. 2. 2018. г. Приступљено 2019-11-09. 
  144. ^ „Deepfakes: Auch Reddit verbannt Fake-Porn”. heise online (на језику: немачки). Архивирано из оригинала 10. 4. 2019. г. Приступљено 2019-11-09. 
  145. ^ „Reddit verbannt Deepfake-Pornos - derStandard.de”. DER STANDARD (на језику: немачки). Архивирано из оригинала 9. 11. 2019. г. Приступљено 2019-11-09. 
  146. ^ Robertson, Adi (2018-02-07). „Reddit bans 'deepfakes' AI porn communities”. The Verge (на језику: енглески). Архивирано из оригинала 24. 9. 2019. г. Приступљено 2019-11-09. 
  147. ^ Price, Rob (2018-01-27). „Discord just shut down a chat group dedicated to sharing porn videos edited with AI to include celebrities”. Business Insider Australia (на језику: енглески). Архивирано из оригинала 15. 12. 2019. г. Приступљено 2019-11-28. 
  148. ^ „Twitter bans 'deepfake' AI-generated porn”. Engadget (на језику: енглески). Архивирано из оригинала 15. 12. 2019. г. Приступљено 2019-11-28. 
  149. ^ а б в Harrell, Drew. „Fake-porn videos are being weaponized to harass and humiliate women: 'Everybody is a potential target'. The Washington Post. Архивирано из оригинала 2. 1. 2019. г. Приступљено 2019-01-01. 
  150. ^ Beres, Damon; Gilmer, Marcus (2. 2. 2018). „A guide to 'deepfakes,' the internet's latest moral crisis”. Mashable (на језику: енглески). Архивирано из оригинала 9. 12. 2019. г. Приступљено 2019-11-09. 
  151. ^ а б „Facebook has promised to leave up a deepfake video of Mark Zuckerberg”. MIT Technology Review (на језику: енглески). Архивирано из оригинала 16. 10. 2019. г. Приступљено 2019-11-09. 
  152. ^ Anderson, Martin (2022). Google Has Banned the Training of Deepfakes in Colab, Unite.ai, May 28, 2022
  153. ^ Maiberg, Emanuel (2022). It Takes 2 Clicks to Get From ‘Deep Tom Cruise’ to Vile Deepfake Porn, VICE, May 17, 2022
  154. ^ Sasse, Ben (2018-12-21). „S.3805 - 115th Congress (2017-2018): Malicious Deep Fake Prohibition Act of 2018”. www.congress.gov. Архивирано из оригинала 16. 10. 2019. г. Приступљено 2019-10-16. 
  155. ^ а б Clarke, Yvette D. (2019-06-28). „H.R.3230 - 116th Congress (2019-2020): Defending Each and Every Person from False Appearances by Keeping Exploitation Subject to Accountability Act of 2019”. www.congress.gov. Архивирано из оригинала 17. 12. 2019. г. Приступљено 2019-10-16. 
  156. ^ а б „'Deepfake' revenge porn is now illegal in Virginia”. TechCrunch (на језику: енглески). Архивирано из оригинала 14. 7. 2021. г. Приступљено 2019-10-16. 
  157. ^ Iacono Brown, Nina (2019-07-15). „Congress Wants to Solve Deepfakes by 2020. That Should Worry Us.”. Slate Magazine (на језику: енглески). Архивирано из оригинала 16. 10. 2019. г. Приступљено 2019-10-16. 
  158. ^ а б в г „Bill Text - AB-602 Depiction of individual using digital or electronic technology: sexually explicit material: cause of action.”. leginfo.legislature.ca.gov. Архивирано из оригинала 17. 11. 2019. г. Приступљено 2019-11-09. 
  159. ^ а б в г „Bill Text - AB-730 Elections: deceptive audio or visual media.”. leginfo.legislature.ca.gov. Архивирано из оригинала 31. 10. 2019. г. Приступљено 2019-11-09. 
  160. ^ Sasse, Ben (2018-12-21). „S.3805 - 115th Congress (2017-2018): Malicious Deep Fake Prohibition Act of 2018”. www.congress.gov. Архивирано из оригинала 16. 10. 2019. г. Приступљено 2019-10-16. 
  161. ^ Iacono Brown, Nina (2019-07-15). „Congress Wants to Solve Deepfakes by 2020. That Should Worry Us.”. Slate Magazine (на језику: енглески). Архивирано из оригинала 16. 10. 2019. г. Приступљено 2019-10-16. 
  162. ^ „China seeks to root out fake news and deepfakes with new online content rules”. Reuters.com. Reuters. 2019-11-29. Архивирано из оригинала 17. 12. 2019. г. Приступљено 2019-12-17. 
  163. ^ Statt, Nick (2019-11-29). „China makes it a criminal offense to publish deepfakes or fake news without disclosure”. The Verge. Архивирано из оригинала 22. 12. 2019. г. Приступљено 2019-12-17. 
  164. ^ а б Call for upskirting bill to include 'deepfake' pornography ban Архивирано 21 јун 2018 на сајту Wayback Machine The Guardian
  165. ^ [1] Архивирано 22 новембар 2019 на сајту Wayback Machine see page 18
  166. ^ Bogart, Nicole (2019-09-10). „How deepfakes could impact the 2019 Canadian election”. Federal Election 2019 (на језику: енглески). Архивирано из оригинала 27. 1. 2020. г. Приступљено 2020-01-28. 
  167. ^ „What Can The Law Do About Deepfake”. mcmillan.ca (на језику: енглески). Архивирано из оригинала 7. 12. 2019. г. Приступљено 2020-01-28. 
  168. ^ „The US military is funding an effort to catch deepfakes and other AI trickery”. MIT Technology Review (на језику: енглески). Архивирано из оригинала 1. 11. 2020. г. Приступљено 2020-10-07. 
  169. ^ а б „DARPA Is Taking On the Deepfake Problem”. Nextgov.com (на језику: енглески). Архивирано из оригинала 28. 10. 2020. г. Приступљено 2020-10-07. 
  170. ^ „Media Forensics”. www.darpa.mil. Архивирано из оригинала 29. 10. 2020. г. Приступљено 2020-10-07. 
  171. ^ а б Crawley, Peter (5. 9. 2019). „The Capture: A BBC thriller of surveillance, distortion and duplicity”. The Irish Times (на језику: енглески). Архивирано из оригинала 9. 9. 2019. г. Приступљено 24. 10. 2019. 
  172. ^ Philip Kerr (2010). A Philosophical Investigation. ISBN 978-0143117537. 
  173. ^ Bernal, Natasha (8. 10. 2019). „The disturbing truth behind The Capture and real life deepfakes”. The Telegraph. Архивирано из оригинала 14. 10. 2019. г. Приступљено 24. 10. 2019. 
  174. ^ „ESPN Films Latest 30 for 30 Documentary Al Davis vs. The NFL to Premiere February 4” (Саопштење). ESPN. 15. 1. 2021. Архивирано из оригинала 6. 2. 2021. г. Приступљено 5. 2. 2021. 
  175. ^ Sprung, Shlomo (1. 2. 2021). „ESPN Documentary 'Al Davis Vs The NFL' Uses Deepfake Technology To Bring Late Raiders Owner Back To Life”. Forbes. Архивирано из оригинала 14. 4. 2021. г. Приступљено 4. 2. 2021. 
  176. ^ „Hudson and Rex”.