INTERVIU Ce trebuie să știi despre fenomenul deepfake în România și global. Care sunt riscurile la care ne expunem, ce spune legea, conform experților Kaspersky
În 2024, problema deepfake-urilor în România, ca și în restul lumii, rămâne una complexă și în continuă evoluție. Fenomenul se referă la utilizarea inteligenței artificiale pentru a crea sau manipula conținut video și audio, făcându-l să pară real, deși este complet fabricat sau modificat. Aceste tehnologii pot avea aplicații inofensive, cum ar fi în divertisment și creație artistică, dar, de asemenea, pot fi folosite în scopuri malițioase sau negative, cum ar fi dezinformarea, manipularea electorală, hărțuirea și, desigur, fraudarea.
În contextul realității autohtone, preocupările legate de deepfake includ aspecte precum:
Dezinformare și manipulare media: Utilizarea deepfake-urilor pentru a crea știri false sau pentru a manipula percepția publică asupra unor figuri publice sau evenimente politice.
Securitate cibernetică: Potențialul deepfake-urilor de a compromite securitatea cibernetică, inclusiv prin imitarea vocilor sau fețelor în scopuri de fraudă.
Protecția vieții private: Probleme legate de crearea de imagini sau înregistrări audio/video false care implică persoane fără consimțământul acestora.
Legislație și reglementare: Nevoia de legi și reglementări care să adreseze utilizarea neetica sau ilegală a tehnologiilor deepfake, echilibrând între protecția împotriva abuzurilor și susținerea libertății de expresie.
Răspunsul la provocările prezentate de deepfake necesită un efort concertat din partea guvernului, industriei tehnologice, organizațiilor media și societății civile. Educația publicului despre cum să recunoască și să verifice informațiile înainte de a le distribui este esențială pentru a combate efectele negative ale deepfake-urilor. În plus, dezvoltarea de tehnologii care pot detecta conținutul deepfake și consolidarea cadrului legislativ pentru a pedepsi utilizarea rău intenționată a acestor tehnologii sunt pași importanți în limitarea răspândirii și impactului lor.
Fenomenul deepfake, din perspectiva experților în securitate cibernetică de la Kaspersky
Pentru a înțelege mai bine amploarea fenomenului deepfake în 2024, potențialele consecințe la scală locală și globală, i-am adresat câteva întrebări pe marginea acestui subiect lui Dan Demeter, cercetător la GREAT (Global Research and Analysis Team) din cadrul companiei de securitate cibernetică Kaspersky.
1. Cât de complex și răspândit a devenit fenomenul deepfake în 2024? Care sunt riscurile la care sunt expuși oamenii obișnuiți?
Kaspersky: Odată cu îmbunătățirea tehnologiilor de generare a video-urilor false, în ultimii ani, rețelele de social media au început să fie inundate de foarte multe video-uri deepfake. De la vestitul “pixel albastru” până la actualul deepfake cu premierul României invitând utilizatorii platformei Youtube să investească în diferite scheme piramidale, aceste video-uri având că scop inducerea publicului în eroare, arătând informații false, dar într-o formă care le conferă credibilitate.
Odată ce utilizatorul a fost convins de veridicitatea acelor informații, pentru că are încredere în personajul care i le prezintă, atacatorii pot să încerce să modifice opinia publică, influențând astfel chiar rezultatele alegerilor democratice; sau, în goana după bani, atacatorii pot să păcălească victimele în a investi economiile lor, ulterior pierzându-le. Câteodată, promovarea unor criptomonede este folosită că metodă ușoară de a fură banii. O campanie de defăimare a unei persoane publice este și ea posibilă, parte a unei campanii de PsyOps. Mai ales acum, cu lansarea SORA a celor de la OpenAI, este clar că zicala noastră tradițională ”crezi ceea ce vezi” nu mai este deloc valabilă.
2. Ce fac giganții rețelelor sociale în frânarea acestui fenomen, dar creatorii de soluții de securitate precum Kaspersky? Este oare doar o problemă de educare a publicului?
Kaspersky: Rețelele sociale încearcă să combată acest fenomen cât de bine pot, dar uitându-ne la recentă controversă cu filmarea deepfake cu Taylor Swift, putem să înțelegem că atunci când o știre sau un video devin “virale”, acel conținut va fi distribuit (share) extrem de rapid, către un număr extrem de mare de persoane. Până la urmă, factorul uman este cel care amplifică orice informație (reală sau falsă). Moderatorii rețelelor sociale au unelte care pot identifica într-un timp destul de scurt anomaliile, dar este foarte greu că ele să fie identificate imediat, de aceea problema este și la publicul care distribuie aceste informații, soluțiile fiind discutate mai jos.
Kaspersky, că lider în securitate cibernetică, investește de aproape 4-5 ani în educarea publicului împotriva celor mai recente campanii de înșelare a publicului (fie prin campanii de phishing, de vishing, manipulare socială sau deepfakes). Prezentările susținute de cercetătorii în securitate precum cele de la Def Câmp (cea mai mare conferință de securitate de la noi din țară) cu teme precum Dezinformarea și manipularea opiniei publice, la fel că și webinar-urile ținute de companie încearcă să ajute utilizatorii de internet împotriva acestor pericole. Dar ele ajung în continuare la un public specializat, sau măcar interesat să discearnă între conținutul real și cel ”fabricat” de pe internet. Mai greu ajung la publicul larg, țintă reală a atacurilor de acest gen.
3. Legea deepfake din România își propune să rezolve problema răspândirii conținutului foto sau video manipulat pe rețelele sociale, dar pare să cocheteze foarte serios cu limitarea dreptului la liberă exprimare și la cenzură. Există o soluție mai bună?
Kaspersky: Ideea de a reglementa conținut ce se postează și se generează în mediul online nu este una nouă. Au fost și sunt nenumărate încercări de a reglementa părți (sau chiar) tot internetul așa cum îl știm noi. În unele părți ale lumii acest lucru a reușit (uitându-ne la statele totalitare), pe când în alte părți internetul este mai liber (dar niciunde complet liber. Poate pe darkweb…)
Problema fundamentală este că o lege că această are șansă să afecteze doar creatorii de conținut legitim, pe când cei care face deepfake-uri “ilegale” (menite să inducă utilizatorii în eroare, sau să defăimeze o anumită persoană, etc..) vor elibera aceste deepfake-uri pe internet-ul (chiar și) românesc la liber, reușind să ajungă la un număr semnificativ de persoane până când video-ul va fi dat jos (vezi cazul recent cu Taylor Swift)
O soluție mai bună decât această lege este educarea utilizatorilor. La fel cum la școală se învață materii precum “Educație Antreprenorială” sau “Educație civică” sau “Tehnologia Informației și a Comunicațiilor” educarea discernământului în relație cu conținutul distribuit pe internet ar trebui să fie o prioritate într-o lume conectată din ce în ce mai mult.
4. Cât de aproape suntem de momentul în care niciun om sau algoritm software nu poate să mai distingă între un conținut video autentic și unul manipulat cu ajutorul tehnologiilor deepfake?
Kaspersky: O întrebare tot mai frecvența în ultima vreme. Tehnologia AI de generare de conținut (era of generative video) avansează cu pași mari, compania OpenAI lansând în dată de 15 Februarie 2024 un model AI numit SORA ce poate genera video-uri destul de realiste plecând de la un text introdus de utilizator. Ce potențial ar avea, vedem și din informația potrivit căreia o investiție de 800 de milioane de dolari într-un studio a fost pusă în așteptare în momentul în care investitorul a văzut clipurile create de SORA
Cu siguranță, OpenAI nu este singura companie ce face pași repezi în acest domeniu. Deși video-urile generate de Sora încă prezintă artefacte de generare, ele vor fi rezolvate în timp, pe măsură ce modelul AI începe să devină din ce în ce mai bun.