Tehnologie

Un decedat „vorbește” în instanță – Cum a fost folosit un deepfake AI în procesul unui criminal VIDEO

Într-o sală de judecată din Arizona, o victimă a violenței a „luat cuvântul” la patru ani după moarte. Familia lui Chris Pelkey, un veteran militar în vârstă de 37 de ani, ucis într-un incident de tip road rage în 2021, a apelat la inteligența artificială pentru a crea un videoclip în care Pelkey, reprodus digital, se adresează presupusului său ucigaș.

Videoclipul, realizat cu ajutorul unui model AI antrenat pe înregistrări video din arhiva personală a victimei, reprezintă primul caz documentat în care un deepfake este folosit în instanță în cadrul unei declarații de impact al victimei.

În înregistrare, replica digitală a lui Pelkey, care poartă o șapcă gri și hanorac verde, transmite un mesaj aparent împăciuitor către Gabriel Horcasitas, inculpatul: „E păcat că ne-am întâlnit în acele împrejurări. Poate că, în altă viață, am fi fost prieteni”, potrivit publicației Popular Science.

Evident, a fost aplicat un filtru digital de îmbătrânire pentru a reda o versiune ipotetică a lui Pelkey, așa cum ar fi arătat dacă ar mai fi trăit.

Judecătorul a menționat că acest moment a influențat decizia de condamnare: Horcasitas a primit o pedeapsă de 10 ani și jumătate pentru omor din culpă.

„Acesta este tot ce vă pot oferi despre cum aș fi arătat dacă aveam șansa să îmbătrânesc”, spune personajul AI în videoclip. „Să îmbătrânești este un dar, nu toată lumea îl primește, așa că bucură-te de fiecare rid”.

Clona AI a lui Chris Pelkey

Tendințe tot mai controversate în instanțele americane

Cazul Pelkey nu este singular. Luna trecută, Jerome Dewald, un bărbat de 74 de ani din New York, a prezentat în instanță un video deepfake în care o persoană generată de AI rostea o pledoarie în numele său, într-un proces civil.

Judecătorul, nefiind informat despre natura artificială a persoanei din videoclip, l-a admonestat pe Dewald pentru lipsa de transparență.

Acesta a declarat ulterior că nu a intenționat să inducă în eroare tribunalul, ci a dorit doar să-și exprime poziția într-un mod cât mai clar.

Inițial, el ar fi vrut să genereze o versiune care să-i semene, dar a abandonat ideea din cauza unor dificultăți tehnice.

Folosirea inteligenței artificiale în procesele legale nu este lipsită de controverse. Mai mulți avocați au fost sancționați în ultimii ani pentru că au depus documente redactate cu ajutorul unor modele de limbaj care conțineau cazuri juridice inexistente.

Într-un incident din 2023, doi avocați din New York au fost pedepsiți pentru că au inclus în argumentație șase spețe fabricate de ChatGPT.

Într-un alt caz, Michael Cohen, fostul avocat al lui Donald Trump, ar fi transmis avocatului său decizii fictive generate de AI, care au ajuns ulterior într-o moțiune oficială.

Se cer reguli pentru definirea tehnologiei viitorului

Deși instanțele au reacționat ferm împotriva folosirii înșelătoare a AI, cadrul legal rămâne neclar. Recent, un comitet federal judiciar a lansat o propunere de reglementare care ar impune ca dovezile generate cu ajutorul AI să respecte aceleași standarde ca cele furnizate de experți umani.

În raportul anual din 2023, președintele Curții Supreme a SUA, John Roberts, a atras atenția asupra riscurilor, dar și asupra beneficiilor posibile ale utilizării AI în justiție.

Potrivit acestuia, tehnologia ar putea reduce barierele financiare în accesul la justiție, dar prezintă pericole legate de invadarea intimității și de desumanizarea actului de judecată.