Među svim zastrašujućim moćima interneta, mogućnost zavaravanja neznanca mogla bi biti najstrašnija. Clickbait, slike s fotografijama i lažne vijesti neki su od najgorih prijestupnika, ali posljednjih godina se primjećuje i porast novog potencijalno opasnog alata poznatog kao umjetna inteligencija deepfake (AI).
Izraz deepfake odnosi se na krivotvoreni, računalno generirani video i audio koji je teško razlikovati od originalnog, nepromijenjenog sadržaja. Snimiti ono što je Photoshop za slike.
Kako funkcionira AI deepfake?
Alat se oslanja na ono što je poznato kao generativne protivničke mreže (GAN), tehniku koju je 2014. godine izumio Ian Goodfellow, doktor znanosti. student koji sada radi u Appleu, izvijestio je Popular Mechanics.
GAN algoritam uključuje dva odvojena AI-a, onaj koji stvara sadržaj - recimo, fotografije ljudi - i protivnika koji pokušava pogoditi jesu li slike stvarne ili lažne, navodi Vox. Stvarajući AI počinje gotovo bez ikakve ideje kako ljudi izgledaju, što znači da njegov partner može lako razlikovati prave fotografije od lažnih. Ali s vremenom, svaka vrsta AI-ja postaje progresivno bolja i na kraju generirajući AI počinje proizvoditi sadržaj koji izgleda savršeno životno.
Primjeri dubinskih falsifikata
GAN-ovi su impresivni alati i ne koriste se uvijek u zlonamjerne svrhe. Godine 2018. slika nastala u GAN-u koja imitira nizozemski stil umjetnika „Old Master“ poput Rembrandta van Rijna iz 17. stoljeća prodala je u aukcijskoj kući Christie za nevjerojatnih 432 500 dolara.
Iste godine, deepfakes se popeo na široko rasprostranjenost, uglavnom putem Redditovog korisnika koji je prozvan imenom 'deepfakes', izvijestio je Vice. GAN tehnika često se koristila za postavljanje lica poznatih slavnih osoba - uključujući Gal Gadot, Maisie Williams i Taylor Swift - na tijela glumica pornografskih filmova.
Ostali GAN-ovi naučili su snimiti jednu sliku osobe i stvoriti prilično realne alternativne fotografije ili videozapise te osobe. U 2019. godini, dubinska fekalija mogla bi stvoriti jezive, ali realne filmove Mona Lise koja se kreće i smiješi na različitim položajima.
Deepfakes također može mijenjati audio sadržaj. Kako je The Verge izvijestio ranije ove godine, tehnika može spojiti nove riječi u videozapis osobe koja govori, pa se čini da su rekli nešto što nikada nisu namjeravale.
Jednostavnost korištenja novog alata potencijalno je zastrašujuća. Ako bilo tko i bilo gdje može napraviti realistične filmove u kojima se prikazuje neka slavna osoba ili političar koji govori, kreće i izgovara riječi koje nikad nije rekao, gledatelji su prisiljeni postati oprezniji prema sadržaju na Internetu. Kao primjer, poslušajte upozorenje predsjednika Obame protiv "izbrušene" distopijske budućnosti u ovom videu iz Buzzfeed-a, stvorenom pomoću deepfakea filmaša Jordana Peelea.