Tehnologie

Democrația sub asediul inteligenței artificiale: 80% din alegerile ultimului an afectate, România printre cele mai grave cazuri, arată ultimul raport internațional

Inteligența artificială (AI) a devenit una dintre cele mai mari amenințări pentru democrație, afectând masiv alegerile din întreaga lume în ultimul an. Un raport recent publicat de International Panel on the Information Environment (IPIE), un consorțiu internațional specializat în analiza amenințărilor asupra spațiului informațional global, relevă că 80% dintre alegerile desfășurate în 2024 au fost marcate de campanii masive de dezinformare generate prin inteligență artificială. Potrivit aceluiași raport, România se numără printre cele mai afectate țări, confruntându-se cu situații extrem de grave.

În detaliu, raportul IPIE precizează că, în 69% dintre cazurile analizate, intervenția inteligenței artificiale a provocat efecte negative directe asupra procesului electoral. Acest fenomen este îngrijorător, deoarece tehnologia folosită combină realismul impresionant al conținutului generat și viteza extraordinară de răspândire, aspecte subliniate și într-o analiză detaliată publicată recent de New York Times.

Cum au fost afectate alegerile din România

România este unul dintre exemplele marcante menționate în raport, în contextul alegerilor prezidențiale desfășurate în martie și mai 2024. Primul tur al alegerilor a fost chiar anulat din cauza campaniilor de dezinformare. În centrul atenției s-a aflat candidatul de extremă dreapta Călin Georgescu, a cărui campanie electorală a fost intens sprijinită de operațiuni coordonate din Rusia, folosindu-se de ferme de boți și tehnologii avansate de AI generativ.

Un caz emblematic de manipulare a fost difuzarea unui video fals în care președintele american Donald Trump părea să-l susțină pe Georgescu, spunând că acesta este „cel mai bun politician pe care l-am întâlnit”. Experții au identificat discrepanțe clare între sunetul și mișcările buzelor din clip, ceea ce a trădat manipularea. Cu toate acestea, impactul asupra opiniei publice a fost semnificativ.

Cazuri similare în alte țări

Pe lângă România, raportul atrage atenția și asupra altor țări grav afectate, precum Polonia și Canada. În Polonia, tot Donald Trump apărea într-un video fals exprimând susținere pentru candidatul de extremă dreapta Sławomir Mentzen. Conform unei analize realizate de Institute for Strategic Dialogue (ISD), rețele online controlate de Kremlin au utilizat AI pentru a genera materiale și a manipula percepțiile publice, inclusiv răspândind informații false despre refugiații ucraineni.

În Canada, un alt incident major a fost o fotografie falsă în care premierul Mark Carney era prezentat alături de Ghislaine Maxwell pe „Insula Epstein”, cunoscută pentru scandaluri de abuz sexual. Aceste imagini manipulate au fost folosite pentru atacuri politice și discreditarea adversarilor.

Deepfake-uri și AI: O combinație periculoasă

O caracteristică esențială a acestor campanii este utilizarea deepfake-urilor, imagini și videoclipuri falsificate care par autentice. De exemplu, în India a circulat intens un clip aparent nevinovat, în care premierul Narendra Modi dansa într-un stil Bollywood. Difuzat strategic în perioada electorală, acest material a contribuit la confuzia generală și a diminuat capacitatea alegătorilor de a distinge între realitate și manipulare.

Potrivit Isabelle Frances-Wright, director Technology and Society la ISD, problema majoră a inteligenței artificiale este că permite acum combinarea calității și a vitezei de propagare a conținutului fals, ceea ce reprezintă un „teritoriu cu adevărat înspăimântător”, aspect confirmat și de publicația italiană La Repubblica.

Raportul internațional cere o reacție fermă și imediată din partea autorităților și instituțiilor internaționale pentru a combate această amenințare crescândă și pentru a proteja integritatea democrațiilor din întreaga lume. În lipsa unor măsuri adecvate, există riscul ca procesele democratice să devină vulnerabile în mod permanent în fața manipulării prin tehnologii avansate.