Clipul de invitaţie la nunta a doi tineri din Dorohoi a devenit viral pe unele medii sociale prin modalitatea deepfake folosită de aceştia. Cu ajutorul tehnologiei deepfake şi a inteligenţei artificiale, Andreea Esca prezintă o ştire de la pupitrul de televiziune, iar la un moment dat preşedintele Klaus Iohannis vorbeşte despre acelaşi eveniment fericit pentru cei doi botoşăneni.
Cu vocile şi chiar intonaţia aproape identice, protagoniştii clipului invită apropiaţii celor doi tineri să ia parte la nuntă şi la petrecerea de la un restaurant din oraş.
Pe cât de amuzant pare, la prima vedere, filmuleţul scoate la iveală şi o latură extrem de îngrijorătoare a fenomenului. Mai ales în campania electorală, aceste deepfake-uri reprezintă o formă de manipulare digitală extrem de gravă. Aceasta utilizează inteligenţa artificială pentru crearea de conţinut audio-video falsificat grosolan. Până acum au apărut nenumărate astfel de tipuri de filmuleţe deepfake. Imaginea unor persoane publice este astfel folosită pentru a promova diferite medicamente sau cure de slăbire minune.
Clipuri şi cu Mugur Isărescu
Nici măcar guvernatorul Băncii Centrale nu a scăpat. Mugur Isărescu a apărut într-un filmuleţ falsificat de inteligenţa artificială încercând să-i convingă pe români să investească într-o platformă inexistentă.
În acest context, Directoratul Naţional de Securitate Cibernetică (DNSC) a lansat un ghid pentru a ne învăţa cum să deosebim o înregistrare reală de un Deepfake. Autorităţile DNSC spun că aceste tehnologii pot fi extrem de dăunătoare mai ales în această perioadă, în care urmează alegeri.
„Cu ocazia zilei de 1 aprilie, Ziua Păcălelii, am considerat oportun să lansăm ghidul despre deepfake. Un ghid care e menit să ajute utilizatorul şi public să înţeleagă mai bine fenomenul deepfake şi pentru a lua măsurile necesare pentru a se proteja de ştirile false, de dezinformare şi de materialele manipulate cu prilejul acestui fenomen”, a precizat Cezar Bărbuceanu, expert în Politici Publice în cadrul DNSC.
Dacă sună prea bine, ne punem primul semn de întrebare
Potrivit celor de la DNSC, există mai multe semne la care trebuie să fim atenţi când privim clipuri atipice. Ori de câte ori se utilizează Inteligenţa Artificială pentru a se recita sau a se mima anumite cuvinte sau un anumit text, personajul iese din cadru şi este mai pixelat. Trebuie să fim atenţi în primul rând la imagini.
Imaginea trebuie să curgă foarte cursiv, foarte fluid, ca să ne dăm seama că este adevărat. Totodată, sunetul ar trebui să aibă variaţii, atunci când vorbim avem un anumit temperament sau o anumită stare, nu vorbim niciodată liniar, iar aceste soluţii sunt făcute să transmită mesajul liniar.
În primul rând, imaginea este mai pixelată decât cea originală, pentru că este folosită practic imaginea originală peste care se încearcă cumva montarea sau ilustrarea unei posibile imagini sau a unui posibil videoclip care să spună ceea ce se doreşte.
Sunt anumite sunete pe litere, şi totodată ajustarea sau sincronul vocii cu mişcarea. Pentru că aici se încearcă mascarea, atunci când personajul spune altceva. Totodată tonalitatea mesajului, nu ar trebui să fie monoton, iar imaginea trebuie să fie fluidă.
Un clip exemplar este şi cel realizat de comediantul Jordan Peel, în urmă cu mai mulţi ani. Acesta a creat, cu ajutorul deepfake un clip în care îl imită perfect pe preşedintele, la acea dată, Barack Obama.
Statul nu poate face nimic
Din păcate, nici legislația nu este prea clară în România la ora actuală. Legislativ, aspectul este reglementat doar de proprietatea intelectuală, în prezent. Dacă este utilizată imaginea unei persoane publice sau a unui produs sau a unui brand şi este redată în alt context, doar legislaţia furtului de proprietate intelectuală poate fi folosită acum, ceea ce este prea puţin.
În prezent, DNSC, alături de anumite platforme de social media şi cu membrii din cadrul acestora încearcă să combată fenomenul, să pună la punct nişte proceduri, pentru a creşte gradul de conştientizare.
Doar un motor de căutare ne poate ajuta să verificăm dacă un video este deepfake, dar numai în cazul tentativelor de fraudă economică. „Scheme Advisers, dacă e o încercare de fraudare financiară care poate utiliza tot deepfake sau social enginering, la fel. Luăm linkul şi vedem dacă a mai fost raportat şi obţinem un rezultat concret”, a mai spus Cezar Bărbuceanu.