Rețeaua generativă adversarială care stă la baza conținutului de tip deepfake îmbină conceptul „deep learning” sau procesul avansat de învățare caracteristic inteligenței artificiale cu noțiunea de „fake”, adică fals. Dezvoltarea deepfake-ului a avut loc deopotrivă în instituțiile academice și pe rețelele de socializare din mediul online. Cercetările academice legate de acest fenomen s-au concentrat pe domeniul viziunii computerizate, o ramură a informaticii responsabilă de procesarea computerizată a imaginilor și videoclipurilor digitale cu ajutorul inteligenței artificiale. Proiectul considerat a fi un reper este programul Video Rewrite, făcut public în 1997, prin care s-a reușit modificarea unui material video deja existent în care era înfățișată o persoană în timp ce susținea un discurs. Acesta a fost primul sistem care a automatizat complet tehnica de reanimare facială utilizând procesul avansat de învățare propriu inteligenței artificiale, pentru a crea conexiuni între sunetele produse de persoana dintr-un videoclip și forma feței acesteia. Proiectele contemporane s-au concentrat pe realizarea unor videoclipuri mai realiste și pe crearea de tehnici simple, rapide și mai accesibile. Programul Face2Face, publicat în 2016, permite modificarea imaginilor video în care apare chipul unei persoane pentru a o înfățișa imitând expresiile faciale ale altei persoane în timp real, folosind o cameră care nu captează adâncimea – ceea ce face posibilă realizarea unui astfel de material prelucrat cu ajutorul unor camere video obișnuite.
Denumirea fenomenului vine de la „deepfakes”, unul dintre utilizatorii rețelei de socializare Reddit, care în 2017 a postat o serie de materiale video trucate în care apar figurile mai multor celebrități ce aveau o atitudine atipică, printre acestea numărându-se și fostul președinte american Barack Obama. În decembrie 2017, jurnalista Samantha Cole a publicat un articol despre fenomenul deepfake în Vice, care a atras atenția asupra propagării materialelor falsificate în cadrul comunităților online. În februarie 2018, conținutul de tip deepfake a fost interzis de Reddit, această decizie fiind adoptată ulterior și de alte site-uri de socializare.
Materialele falsificate pot fi create de oricine are acces la un computer, iar conceperea unui asemenea material scris sau video nu presupune costuri mari. În 2018 a fost lansată aplicația desktop denumită FakeApp, care permite utilizatorilor să creeze și să partajeze videoclipuri în care apar persoane cu fețele schimbate. Aplicația folosește o rețea neuronală artificială și până la 4 GB spațiu de stocare pentru a genera videoclipul fals. Pentru a părea cât mai veridic, programul necesită o mulțime de detalii ale persoanei care trebuie introdusă în materialul video, astfel încât să poată depista ce trebuie schimbat folosindu-se de procesul avansat de învățare bazat pe succesiunea secvențelor video și a imaginilor. Mai precis are nevoie de filmarea unei persoane în timp ce aceasta se mișcă și vorbește, precum și de expresiile sale faciale. Fiecare dintre aceste detalii sunt mai apoi transformate în matrice individuale, analizate și rearanjate urmând tiparul comportamental uman în așa fel încât imaginea persoanei respective să poată fi reproiectată făcând și spunând lucruri pe care de fapt nu le-a făcut sau spus.
Fenomenul deepfake poate să afecteze oricare țară, însă cele mai afectate par a fi Statele Unite ale Americii, unde au existat modificări legislative care vizau conținutul deepfake. Astfel în 2018 a fost propus în Senat un proiect de lege care prevedea interdicția materialelor falsificate, iar în 2019 a fost propusă în Camera Reprezentanților o lege care făcea referire la asumarea responsabilității de către persoanele care emit și răspândesc conținut de tip deepfake. Aceste legi au fost ulterior adoptate de mai multe state, printre care se numără Virginia, Texas, California și New York.
Tehnologia care permite realizarea și răspândirea de informații care nu sunt adevărate evoluează într-un ritm constant, astfel încât conținutul falsificat devine tot mai dificil de depistat. De aceea giganți ai mediului online precum Google și Facebook și-au luat o serie de măsuri de precauție. Google a colaborat cu specialiști în materie de inteligență artificială pentru a crea programe care să poată detecta materialele video ce au conținut fals și urmăresc sabotajul între diverse companii sau dezinformarea opiniei publice cu privire la deciziile de pe scena politică, în timp ce Facebook a lucrat îndeaproape cu Microsoft pentru a crea programe software ce utilizează algoritmi speciali care detectează anomaliile.