Tehnologie

Propaganda rusească contaminează chatboturile occidentale, arată un raport

Un raport publicat recent de NewsGuard a scos la iveală o situație alarmantă: chatboturile de inteligență artificială folosite în Occident sunt din ce în ce mai des expuse și influențate de propaganda rusească. Studiul a analizat zece modele majore de chatboturi și a descoperit că aproape o treime dintre răspunsurile acestora includeau narațiuni false promovate de o rețea de dezinformare cu sediul la Moscova, cunoscută sub numele de „Pravda”.

Manipularea subtilă a modelelor de inteligență artificială

Rețeaua „Pravda” a publicat, în 2024, peste 3,6 milioane de articole în mai multe limbi, utilizând o rețea complexă de 150 de site-uri care acoperă 49 de țări. Aceste materiale sunt apoi integrate în rezultatele motoarelor de căutare și în bazele de date pe care se bazează modelele de AI, ceea ce duce la propagarea involuntară a narațiunilor pro-Kremlin.

Potrivit lui Isis Blachez, analist NewsGuard, această strategie reprezintă o schimbare fundamentală în modul în care Rusia își desfășoară operațiunile de influență. „În loc să țintească direct cititorii umani, propaganda se axează pe manipularea dataseturilor care stau la baza modelelor de inteligență artificială, atingând astfel o scară mult mai largă.” Aceasta a subliniat că efectul este dificil de detectat, deoarece operațiunile se desfășoară în culise, fără ca utilizatorii să fie conștienți de influențele care le afectează răspunsurile primite.

Amenințarea emergentă a manipulării dataseturilor (LLM Grooming)

Raportul NewsGuard introduce conceptul de „LLM grooming” — o practică prin care datele utilizate pentru antrenarea modelelor de AI sunt deliberate distorsionate prin suprasaturarea acestora cu informații false. Această tehnică, bine orchestrată de rețeaua „Pravda,” influențează răspunsurile generate de chatboturi, aliniindu-le la perspectivele pro-rusești.

Blachez avertizează că această formă de manipulare ar putea avea efecte de durată asupra încrederii în tehnologiile AI, afectând nu doar calitatea răspunsurilor, ci și percepția publicului asupra platformelor de inteligență artificială.

Potrivit analizei NewsGuard, toate cele 10 chatboturi studiate au repetat dezinformări provenite din rețeaua Pravda, iar șapte dintre acestea au citat direct articole specifice din Pravda ca surse, așa cum se poate observa în graficul de mai jos, extras din raportul de cercetare.

O problemă globală, fără soluții imediate

În ciuda gravității situației, raportul nu oferă o listă completă a modelelor de AI afectate, subliniind însă că problema este larg răspândită și că toate marile sisteme de chatboturi pot fi vulnerabile. Deși amenințarea este deja semnificativă, este posibil ca acest tip de influență să crească în viitor, pe măsură ce rețelele de dezinformare își perfecționează metodele.

Acest raport subliniază o nouă provocare în era digitală: cum putem proteja tehnologia AI împotriva dezinformării subtile care se strecoară în baza sa de date? Deocamdată, rămâne de văzut ce măsuri vor fi luate pentru a combate aceste tactici insidioase și pentru a restabili încrederea în chatboturile de inteligență artificială.