Propaganda rusească se dă pe inteligența artificială „de pe Temu”. Cum au reușit să facă un tsunami de dezinformare cu unelte AI gratuite
Un nou raport dezvăluie amploarea îngrijorătoare a unei campanii pro-ruse de dezinformare care utilizează instrumente AI gratuite și ușor accesibile pentru a produce în masă conținut manipulator.
Cunoscută sub numele Operation Overload sau Matryoshka, campania este activă din 2023 și a fost asociată în mod repetat cu guvernul rus de către organizații precum Microsoft și Institutul pentru Dialog Strategic.
Campania vizează audiențe din întreaga lume, dar principalul său obiectiv rămâne Ucraina. În perioada septembrie 2024 – mai 2025, cercetătorii au identificat o creștere explozivă a volumului de conținut produs: 587 materiale unice, de la imagini și videoclipuri manipulate, până la coduri QR și site-uri false, scrie publicația WIRED.
Majoritatea acestora sunt generate cu ajutorul AI, într-o tactică denumită content amalgamation, practic aceeași narațiune fiind difuzată în multiple forme și limbi pentru a-și maximiza impactul.
Propagandă scalabilă, multilingvă și sofisticată
Potrivit raportului realizat de organizațiile Reset Tech (Marea Britanie) și Check First (Finlanda), tactica marchează un punct de cotitură: propaganda devine din ce în ce mai scalabilă, rapidă și diversificată.
„Diversitatea tipurilor de conținut m-a luat prin surprindere”, spune cercetătoarea Aleksandra Atanasova de la Reset Tech. „Au început să combine straturi de conținut diferit, text, imagine, voce, pentru a aborda aceleași teme din unghiuri multiple”, a adăugat ea.
Campania nu folosește unelte personalizate, ci instrumente AI comerciale disponibile gratuit. De exemplu, Flux AI, un generator text-imagine dezvoltat de compania germană Black Forest Labs, a fost identificat ca sursă probabilă pentru numeroase imagini false distribuite de rețea, unele dintre ele înfățișând așa-zise revolte violente ale imigranților musulmani în Berlin sau Paris.
Vocea unor persoane publice a fost de asemenea clonată cu AI pentru a manipula videoclipuri. Într-un caz, o profesoară franceză a fost transformată într-o portavoce falsă pentru extremismul de dreapta german, deși materialul original era despre un premiu academic.
Astfel de clipuri falsificate au crescut dramatic în număr, de la 150 în perioada iunie 2023, iulie 2024 la 367 în următoarele opt luni.
Rețele de distribuție și tactici paradoxale
Conținutul generat este diseminat prin peste 600 de canale Telegram, conturi de tip bot pe X și Bluesky, dar și prin TikTok, unde doar 13 conturi au reușit să adune 3 milioane de vizualizări înainte să fie moderate. TikTok a reacționat rapid, însă pe X, cercetătorii remarcă „acțiuni minime” în ciuda multiplelor sesizări.
O tactică neobișnuită folosită de Operation Overload este aceea de a trimite direct materiale fabricate către organizații media și de fact-checking, cerându-le „verificarea”.
Scopul real este ca aceste materiale să fie menționate chiar și în articole de demontare, o apariție în presa clasică, chiar etichetată ca falsă, conferă notorietate și distribuție suplimentară.
Se estimează că peste 170.000 de astfel de emailuri au fost trimise către 240 de destinatari din septembrie 2024 încoace.
Impactul și viitorul luptei contra dezinformării AI
Deși multe dintre site-urile false create de campanie nu atrag trafic semnificativ, promovarea agresivă pe rețelele sociale poate duce uneori conținutul fals în fruntea rezultatelor de căutare Google.
Potrivit American Sunlight Project, rețelele de dezinformare rusești produc deja cel puțin 3 milioane de articole AI pe an, infiltrând inclusiv rezultatele oferite de chatboturi ca ChatGPT sau Google Gemini. „Deja au găsit rețeta care funcționează. Știu exact ce fac”, avertizează Atanasova.