If-Koubou

Kako spotati "Deep Fake" Face-Swapped videozapis

Kako spotati "Deep Fake" Face-Swapped videozapis (Kako da)

Nedavno je Reddit ponovno objavio vijest s najnovijim subredditom u kojemu ljudi koriste alat za učenje stroja pod nazivom "Deep Fake" kako bi automatski zamijenili lice jednog lica u drugom videu. Očito, budući da je riječ o internetu, ljudi ga koriste za dvije stvari: lažna pornografija i umetanje Nicole Cage u slučajne filmove.

Prilikom zamjene nečijeg lica na fotografiji uvijek je bio relativno lagan, zamjena nečijeg lica u videu bila je dosta vremena i težak. Do sada, uglavnom su to učinili samo VFX studiji za velike proračunske holivudske filmove, gdje je glumacovo lice zamijenjeno dvostrukim štosom. Ali sada, s Deep Fake, svatko s računalom može to učiniti brzo i automatski.

Prije nego što krenete dalje, morate znati kako izgleda Deep Fake. Pogledajte video SFW ispod kojeg je kompilacija različitih slavnih lica swap, uglavnom uključuje Nic Cage.

Deep Fake softver radi koristeći strojno učenje. Prvo je obučeno s ciljanim licem. Iskrivljene slike meta se provode kroz algoritam i nauči kako ih ispraviti kako bi nalikovale na nepromijenjeno lice. Kada se algoritam zatim prenese slike druge osobe, pretpostavlja da su iskrivljene slike meta i pokuša ih ispraviti. Za dobivanje videozapisa, softver Deep Fake djeluje na svakom kadru pojedinačno.

Razlog zbog kojeg su Deep Fakes u velikoj mjeri uključeni glumci je da im je dosta snimki dostupnih iz različitih kutova, što čini trening učinkovitijim (Nicolas Cage ima 91 glumačko djelo na IMDB-u). Međutim, s obzirom na količinu fotografija i videozapisa koje ljudi objavljuju na mreži i da zaista trebate samo oko 500 slika za treniranje algoritma, nema razloga da se obični ljudi ne mogu ciljati, iako vjerojatno s manjim uspjehom.

Kako pronaći Deep Fake

Upravo sada, Deep Fakes je prilično lako uočiti, ali će se teže kao tehnologija dobiva bolje. Ovdje su neke od pokloni.

Čudno izgleda lica. U puno Deep Fakes, lica izgledaju čudno. Značajke se ne savršeno podudaraju, a sve se samo čini pomalo voskom kao na donjoj slici. Ako sve ostalo izgleda normalno, ali lice izgleda čudno, vjerojatno je Deep Fake.

Treperenje, Zajednička značajka loših Deep Fake videozapisa jest da se lice trepne i izvorne se značajke ponekad pojavljuju u pogledu. Obično je vidljiviji na rubovima lica ili kada nešto prolazi pred njim. Ako se dogodi čudno treperenje, gledaš se u Deep Fake.

Različita tijela. Deep Fakes su samo lice swaps. Većina ljudi pokušava dobiti dobru organizamsku utakmicu, ali to nije uvijek moguće. Ako se čini da je osoba osjetno teža, lakša, viša, kraća ili ima tetovaže koje nemaju u stvarnom životu (ili nemaju tetovaže koje imaju u stvarnom životu), postoji dobra šansa da je lažna. Vidjet ćete uistinu očigledan primjer, gdje je lice Patricka Stewarta zamijenjeno J.K. Simmons u sceni iz filma Whiplash. Simmons je znatno manji od Stewart, tako da izgleda čudno.

Kratki isječci. Upravo sada, čak i kada Deep Fake softver radi savršeno i stvara gotovo nerazgovjetan lice swap, može to učiniti samo za kratko vrijeme. Prije duljeg vremena, započet će jedan od gore navedenih problema. Zato je većina Deep fake isječaka koje ljudi dijele samo nekoliko sekundi, a ostatak snimke je neupotrebljiv. Ako vam se prikazuje kratki isječak slavne osobe koja radi nešto, a nema dobrog razloga što je tako kratko, to je znak da je to Deep Fake.

Nema zvučne ili loše usne sinkronizacije. Deep Fake softver samo prilagođava značajke lica; ne čudi da jedna osoba zvuči poput druge. Ako nema zvuka s isječkom, i nema razloga da ne budu zvukovi, to je još jedan znak da gledate Deep Fake. Slično tome, čak i ako postoji zvuk, ako se izgovorene riječi ne podudaraju ispravno s pomicanim usnama (ili usne izgledaju čudno dok osoba govori kao u isječku u nastavku), možda imate Deep Fake.

Nevjerojatno isječke, Ova jedna vrsta ide bez riječi, ali, ako ste pokazali doista nevjerojatan isječak, postoji dobra šansa da to zapravo ne biste trebali vjerovati. Nicolas Cage nikad nije glumio kao Loki u filmu Marvel. Bilo bi cool, ipak.

Sumnjivi izvori. Kao i kod lažnih fotografija, odakle videozapis navodno dolazi, često je veliki trag o njegovoj autentičnosti. Ako New York Times izvodi priču o njemu, vjerojatnije je da je istina da nešto otkrijete u slučajnom kutku Reddit.

Deep Fakes za sada su više zastrašujuće znatiželje nego veliki problem. Rezultati su lako locirati, a iako je nemoguće oprostiti što se radi, nitko još ne pokušava prodati Deep Fakes kao autentične videozapise.

Kako tehnologija postaje bolja, vjerojatno će to biti mnogo veći problem. Na primjer, uvjeravanje lažnih snimaka Kim Jong Una o proglašenju rata SAD-u moglo bi izazvati veliku paniku.