Și-au vândut fața și vocea inteligenței artificiale, dar n-au prevăzut ce urma: „mesaje politice, știri false, remedii și ceaiuri miraculoase”
In goana dupa bani rapizi si aparent fara efort, tot mai multi oameni isi vand imaginea si vocea unor companii specializate in inteligenta artificiala, fara sa stie cu adevarat ce implica aceste contracte. Rezultatul? Chipurile lor apar in videoclipuri false, promovand produse indoielnice, informatii eronate sau chiar mesaje politice, in unele cazuri fara nicio posibilitate de retragere sau control, scrie AFP.
Avatare umane, costuri minime, riscuri majore
Fenomenele deepfake si generarea de continut cu chipuri reale, dar mesaje complet fabricate, capata o amploare tot mai mare. Companiile de marketing digital si platformele AI folosesc acum figuri umane reale – mai convingatoare si mai ieftine decat actori platiti – pentru a crea reclame, demonstratii de produse sau continut viral. Procedeul este simplu: cateva ore de filmare pe fundal verde, cu interpretari emotionale variate, urmate de prelucrarea digitala si integrarea vocii generate de AI in orice limba.
Potrivit Solenei Vasseur, expert in comunicare digitala, aceasta practica permite firmelor sa para moderne si adaptate noilor tehnologii. Iar pentru cei care isi cedeaza imaginea, suma primita poate varia de la cateva sute la cateva mii de euro. Problema? Foarte putini inteleg cu adevarat ce au semnat.
De la reclama la propagandă
Simon Lee, actor si model sud-coreean, a aflat cu stupoare ca avatarul sau digital este folosit pentru a promova „remedii” dubioase pe TikTok si Instagram – de la ceaiuri pentru slabit pana la bai reci anti-acnee. „Daca ar fi fost o reclama serioasa, n-as fi avut o problema, dar asa… e clar o inselatorie„, a declarat el pentru AFP. Si totusi, contractul sau permite utilizarea imaginii de catre terti.
Un alt exemplu vine de la actorul newyorkez Adam Coy, care a cedat drepturile asupra chipului si vocii pentru un an, in schimbul a 1000 de dolari. Cateva luni mai tarziu, mama iubitei sale l-a vazut intr-un clip in care sustinea, ca „mesager din viitor”, ca vin catastrofe globale. Niciun articol contractual nu interzice astfel de folosiri, atata timp cat nu implica continut sexual, alcool sau tutun.
O industrie opaca si in plina expansiune
In 2022, britanicul Connor Yeates a semnat un contract de trei ani cu Synthesia pentru 4600 de euro. La acea vreme dormea pe canapeaua unui prieten. Ulterior a descoperit ca imaginea sa a fost folosita in videoclipuri de propaganda pentru liderul burkinabez Ibrahim Traoré, ajuns la putere printr-o lovitura de stat. Compania a recunoscut ulterior ca sistemul sau nu era pregatit sa filtreze continutul politic polarizant.
Intre timp, noi platforme AI au aparut, cu reguli si mai relaxate. O jurnalista AFP a demonstrat cat de usor se pot genera clipuri in care un avatar spune enormitati fara nicio verificare.
Contracte dezechilibrate si lipsa reglementarilor
„Multe persoane nu inteleg ce implica cu adevarat semnarea acestor acorduri„, avertizeaza avocata Alyssa Malchiodi. Contractele includ adesea clauze abuzive: drepturi globale, perpetue, irevocabile, fara posibilitate de retragere. „Nu vorbim despre chipuri inventate, ci despre persoane reale, pe care AI-ul nu le sterge, ci le expune„, subliniaza ea.
In lipsa unor reglementari clare, utilizarea imaginilor si vocilor reale in continut generat de AI risca sa transforme oameni obisnuiti in actori involuntari ai unor mesaje comerciale, inselatoare sau chiar periculoase. Si odata semnat contractul, intoarcerea este aproape imposibila.