Tehnologie

„Mamă, am nevoie urgent de bani” Voci clonate cu inteligență artificială se răspândesc rapid și devin imposibil de detectat

O nouă formă de înșelătorie tehnologică, cu potențial devastator, se răspândește rapid la nivel global: apelurile vocale false generate de inteligență artificială. Cu doar câteva secunde de înregistrare a vocii unei persoane, escrocii pot crea replici digitale convingătoare care pot păcăli chiar și pe cei mai vigilenți ascultători. De la părinți speriați la miniștri de externe, nimeni nu mai este în siguranță în fața acestei forme sofisticate de fraudă emoțională.

În Statele Unite, numai în anul 2024 au fost înregistrate peste 845.000 de plângeri privind tentative de fraudă vocală. Escrocii folosesc un element esențial: sentimentul de urgență. Un apel aparent de la copilul tău, o voce cunoscută care cere ajutor imediat sau bani pentru o „situație critică” — toate acestea devin posibile prin clonarea vocii cu ajutorul inteligenței artificiale.

De la deepfake video la „deepvoice” audio: un nou nivel de manipulare

Unul dintre cele mai tulburătoare cazuri recente a avut loc în SUA, unde trei miniștri de Externe, un guvernator de stat și un membru al Congresului au primit mesaje vocale prin Signal. Vocile păreau a fi ale secretarului de stat american Marco Rubio, însă ulterior s-a descoperit că erau falsuri generate cu AI.

Metoda este simplă, dar extrem de eficientă: e suficientă o înregistrare de câteva secunde cu vocea unei persoane — dintr-un interviu, podcast sau videoclip postat pe rețele sociale — pentru a crea o versiune digitală a vocii. Ulterior, AI-ul poate reproduce aproape orice frază cu inflexiuni și timbru realist, făcând diferențierea aproape imposibilă fără instrumente specializate.

Aceste apeluri sau mesaje vocale pot fi trimise prin aplicații de mesagerie criptată, ceea ce face și mai greu de urmărit sursa. Și, cel mai grav, în multe cazuri victimele nu își dau seama că au fost înșelate decât după ce au transferat sume importante de bani.

Cum te poți proteja: coduri de siguranță și gândire critică

Specialiștii recomandă un set minim de măsuri pentru a preveni asemenea situații. În primul rând, nu trebuie să reacționezi impulsiv. Sentimentul de urgență este intenționat indus pentru a paraliza gândirea rațională. Dacă primești un apel suspect, chiar și de la o voce cunoscută, încearcă să confirmi autenticitatea apelului printr-un alt canal de comunicare.

Un truc simplu, dar eficient, este stabilirea unui cod de siguranță în familie sau cu persoanele apropiate — un cuvânt sau o frază pe care doar voi o cunoașteți și care trebuie rostită într-o situație de criză. Codul nu trebuie să fie numele animalului de companie sau data nașterii — alege ceva imposibil de ghicit de un necunoscut.

În plus, devine tot mai important să fim sceptici cu privire la ceea ce vedem și auzim online. Pe măsură ce tehnologia avansează, capacitatea noastră de a discerne realul de fals va fi testată constant.

O întrebare esențială: de ce este permisă această tehnologie?

Deși tehnologia de clonare vocală poate avea aplicații pozitive în domenii precum divertismentul, jocurile video sau accesibilitatea pentru persoane cu dizabilități, întrebarea rămâne: de ce nu este reglementată mai strict o unealtă care poate fi folosită pentru manipulare și înșelăciune?

Pe măsură ce AI devine tot mai sofisticat, este clar că trebuie nu doar să ne protejăm de tehnologie, ci și să regândim complet regulile jocului digital. În curând, „nu tot ce auzi e adevărat” va deveni mai mult decât un proverb — va fi o regulă de supraviețuire.