Plenul Senatului a adoptat în urmă cu 10 zile proiectul legislativ privind interzicerea utilizării maliţioase a tehnologiei şi limitarea fenomenului deep fake, astfel că următorul pas este votul în Camera Deputaților, ca for decizional. Proiectul legislativ a fost adoptat cu 77 de voturi „pentru”, 17 „împotrivă” şi 10 „abţineri”.
Denumirea deep fake s-a născut din combinația dintre inteligența artificială (deep learning) și fals (fake), ce are la bază un concept numit Generative Adversarial Network (rețea generativă adversarială), ce poate fi folosit pentru a reproduce imagini video și sunet superficial, care par a fi reale pentru ochiul uman.
În termeni mai simpli, este vorba despre fotografii și chiar imagini video create cu ajutorul inteligenței artificiale, care ar putea cu ușurință să denigreze anumite personaje politice, în cazul folosirii acestei tehnologii în scop electoral.
Cel mai celebru video deep fake arată cum poate fi folosită tehnologia și cât este de avansată
În urmă cu mai bine de un an și jumătate, canalul olandez Diep Niep a publicat unul dintre cele mai cunoscute exemple de video deep fake, în care un Morgan Freeman generat de inteligența artificială ”mărturisește” că de fapt cel pe care îl vedem nu este celebrul actor, ci doar un avatar, care poate fi programat să spună orice și să facă orice gest.
Acesta a fost un punct de cotitură major în modul în care omenirea se raportează la inteligența artificială și la cum poate ea fi folosită, mulți oameni realizând pericolele ce ar putea apărea. De exemplu, cum un stat (X) ar putea folosi un video deep fake în care conducătorul altei țări (Y) i-ar declara război.
Astfel, statul X ar fi îndreptățit să întreprindă acțiuni de apărare dar și ofensive, fără ca amenințarea inițială să fie una reală, ci doar un pretext.
Fotografii deep fake cu Trump fiind urmărit de poliție și luptându-se cu agenții
Cel mai cunoscut caz recent de utilizare a tehnologiei pentru a crea imagini deep fake a avut loc după punerea sub acuzare a lui Donald Trump, când internetul a fost împânzit cu fotografii care păreau a-l înfățișa pe fostul președinte al SUA fugind de poliție pe străzile din New York, apoi luptându-se cu agenții care încercau să-l rețină (VEZI GALERIA FOTO). Niciuna dintre aceste imagini nu avea niciun sâmbure de adevăr, Trump prezentându-se voluntar la tribunalul din Manhattan, de unde a plecat după ce i-au fost aduse la cunoștință acuzațiile care i se aduc.
Un alt exemplu de utilizare a tehnologiei AI pentru a crea imagini deep fake în scopuri politice vine tot din SUA, afectat fiind, de data aceasta, rivalul lui Trump, președintele în exercițiu Joe Biden, care a fost ilustrat într-un astfel de video insultând persoanele transgender, ceea ce a stârnit un val de furie liberală la adresa sa.
S-a dovedit ulterior că, de fapt, un deep fake de data aceasta audio, care copia vocea președintelui, fusese suprapus unor imagini cu el în timpul unui discurs, dând astfel impresia unei declarații reale.
Îngrijorările pornesc din SUA
Experții în tehnologie din SUA sunt de părere că fenomenul deep fake este unul foarte periculos, primul ”hop” fiind reprezentat chiar de alegerile prezidențiale ce urmează a avea loc tot în 2024, în condițiile în care tehnologia avansează mult prea rapid chiar și pentru companiile care administrează cele mai mari rețele sociale.
În fața unui val tot mai mare de fotografii și videouri deep fake, rețelele sociale nu au încă mecanisme performante care să stopeze fenomenul și să îi protejeze pe utilizatori de astfel de falsuri, iar unii recunosc franc faptul că nici nu sunt stimulați suficient pentru a le dezvolta, având în vedere costurile enorme pe care le-ar presupune.
O explicație edificatoare în acest sens vine de la Bradley Tusk, CEO și fondator al companiei Tusk Venture Partners.
”Aceste stimulente nu numai că nu există, dar ele chiar apar în sens invers. Dacă cineva creează un video deep fake, iar acesta ajunge viral, nu face altceva decât să aducă mai multe accesări platformei respective.
Companiile nici nu au vrut, nici nu au putut să oprească valul de conținut fals generat de oameni, cu atât mai puțin vor putea face asta în cazul continutului generat de inteligența artificială”, a declarat Tusk pentru New York Post.
Utilizarea deep fake a ajuns deja la cel mai înalt nivel
Parcă pentru a atrage atenția asupra pericolului reprezentat de acest tip de conținut, chiar în luna iunia a acestui an un scandal imens a fost iscat în SUA de candidatul republican Ron DeSantis, guvernatorul statului Florida și contracandidatul lui Trump pentru nominalizarea la prezidențiale din partea Partidului Republican, care a folosit un poster de campanie cu fotografii ale lui Trump îmbrățișându-l pe doctorul Fauci, chiar în timpul pandemiei de Covid. Imaginile erau false.
Ce prevede proiectul de lege anti deep fake din România
Proiectul, iniţiat de parlamentari PSD, susţinut de PNL, UDMR şi minorităţi, are ca obiect de reglementare instituirea obligaţiei ca realizarea, stocarea, distribuirea pe internet sau difuzarea în mass-media de conţinut deep fake să fie însoţită de o menţiune vizibilă, precum şi calificarea nerespectării acestei obligaţii drept infracţiune.
„Având în vedere dezvoltarea accelerată a tehnologiei, a inteligenţei artificiale (IA), a tehnicilor de creare a Realităţii Virtuale (RA), precum şi avansul pe care îl înregistrează procesul de dezvoltare/învăţare automată a instrumentelor tehnice (machine learning) este necesară şi importantă intervenţia legiuitorului pentru limitarea efectelor maliţioase ale conţinutului în imagini, înregistrări audio şi video. Specialiştii în domeniu consideră că deepfake-ul este mult mai periculos şi are un impact mult mai puternic decât ştirile false cu care ne-am obişnuit în ultimii an, toate acestea deoarece deepfake-ul cuprinde toate elementele unui produs media respectiv text, fotografie, video, audio. Imaginile, înregistrările audio şi video de tip deep fake (Fals Sever) pot cauza prejudicii enorme atât în ceea ce priveşte imaginea, reputaţia sau demnitatea unei persoane, cât şi asupra unor organizaţii publice, private sau chiar instituţii ale statului. Realizarea şi distribuirea unor imagini, înregistrări audio sau video de tip deep fake (Fals Sever) pot prejudicia, în funcţie de conţinutul lor şi de contextul în care sunt gestionate, inclusiv interesul social, politic sau de securitate naţională a României, pot să erodeze încrederea în instituţii ale statului, pot aduce prejudicii de imagine unei persoane”, se arată în expunerea de motive a proiectului legislativ.
Senatorul PSD Robert Cazanciuc, iniţiator, a afirmat în plen că proiectul îşi propune să aducă „puţină disciplină în utilizarea inteligenţei artificiale pentru a mistifica o realitate”.
„A venit vremea ca tehnologia să ne arate că ceea ce vedem nu este adevărat. Acest proiect îşi propune să aducă puţină disciplină în utilizarea inteligenţei artificiale pentru a mistifica o realitate. Ea se întâmplă, se poate întâmpla din raţiuni de divertisment, din raţiuni tehnice sau de a ilustra ceva într-un act artistic. Dar atunci când un mesaj public falsificat ajunge la populaţie, riscurile sunt extrem de mari. Această lege nu interzice utilizarea deep fake-ului, ci doar spune în felul următor: când transmiteţi un mesaj video mistificat, puneţi un avertisment fie în mesajul video, fie în mesaj, asta încearcă să facă acest proiect de lege, să aducă puţină disciplină”, a detaliat Cazanciuc.