Ai crede că sunt reale, dar clipurile generate cu AI de la Google încurajează deepfake-ul și dezinformarea. De ce reprezintă o problemă
În ultima perioadă, internetul a fost invadat de videoclipuri generate cu ajutorul inteligenței artificiale, iar noul instrument Veo 3 de la Google DeepMind pare să împingă limitele realismului mai departe ca niciodată. Clipurile create cu Veo 3 includ nu doar imagini uimitoare, ci și dialoguri sincronizate perfect, efecte sonore realiste și respectarea detaliilor fizice, cum ar fi mișcarea naturală a corpului sau detaliile anatomice, inclusiv faimoșii cinci degete corect generați. Problema? Toate acestea fac aproape imposibilă diferențierea dintre realitate și ficțiune.
Pe cât de impresionant este din punct de vedere tehnologic, Veo 3 ridică îngrijorări serioase cu privire la deepfake-uri și dezinformare, amplificând temerile legate de impactul AI asupra societății.
Cum funcționează Veo 3 și ce îl face atât de periculos
Comparativ cu alte instrumente, cum ar fi Sora de la OpenAI, Veo 3 aduce un pas suplimentar: integrarea dialogurilor și a efectelor sonore direct în procesul de generare. Practic, nu mai ai nevoie de o echipă separată care să asigure post-producția. AI-ul poate construi de la zero un scurtmetraj în care actorii virtuali vorbesc, gesticulează, se mișcă natural și interacționează într-un decor hiperrealist.
În exemplul viral publicat de biologul și regizorul Hashem Al-Ghaili, AI-ul generează un întreg film în care creatorii de inteligență artificială sunt provocați de propriile lor creații. Publicul nu mai poate sesiza semnele clasice ale conținutului generat artificial – nu mai vezi mâini deformate, fundaluri neclare sau expresii faciale anormale. Iar asta face ca materialele produse să fie periculos de convingătoare.
Instrumentul, deja disponibil în abonamentul Google AI Ultra pentru 249 USD/lună în SUA, nu se limitează doar la film sau divertisment. Marketingul digital, presa, publicitatea și chiar campaniile politice ar putea fi transformate profund, iar asta deschide o mulțime de uși pentru manipulare.
De ce clipurile generate cu AI pot amplifica dezinformarea
Înainte, producerea unui deepfake de calitate necesita resurse considerabile: echipe tehnice, software complex și mult timp. Acum, cu Veo 3 și alte instrumente similare, oricine are acces la un abonament premium poate genera în câteva minute un videoclip care pare autentic. Problema nu este doar una tehnică, ci mai ales una etică și socială.
Un clip falsificabil, dar hiperrealist, poate influența opinia publică, poate defăima persoane, poate manipula campanii electorale sau poate genera panică. Spre exemplu, un videoclip cu un politician spunând ceva pe care nu l-a declarat niciodată poate deveni viral înainte ca echipa de comunicare să apuce să reacționeze. Într-o epocă a informației rapide, primul impact contează, chiar dacă ulterior clipul este demontat ca fiind fals.
Îngrijorarea principală a experților este legată de lipsa unor reglementări clare. Nu știm cum a fost antrenat Veo 3, ce date a folosit Google, cum gestionează drepturile de autor și dacă există vreun filtru pentru prevenirea utilizării abuzive. Mai mult, până și artiști sau creatori cunoscuți, precum YouTuber-ul Marques Brownlee, și-au exprimat îngrijorarea că instrumentele de AI ar putea reproduce elemente specifice canalelor lor, ceea ce ar putea semnala o antrenare pe conținut existent fără permisiune.
Viitorul: cum gestionăm această problemă?
Pe măsură ce aceste tehnologii devin tot mai accesibile, societatea trebuie să răspundă rapid. E nevoie de reglementări care să oblige platformele să marcheze conținutul generat cu AI, de algoritmi mai buni care să detecteze deepfake-urile și de campanii de educare a publicului cu privire la riscurile asociate.
Pentru tine, ca utilizator, e important să privești orice videoclip viral cu un ochi critic. Dacă pare prea spectaculos pentru a fi adevărat, s-ar putea să nu fie adevărat. Într-un mediu digital unde realitatea poate fi reconstruită la comandă, verificarea surselor și scepticismul devin instrumente esențiale.