Tehnologie

Cum îți protejezi fotografiile de inteligența artificială și deepfake: modul în care funcționează PhotoGuard

Pe măsură ce sistemele AI progresează și companiile lucrează pentru a-și diferenția ofertele de cele ale concurenței, chatboții devin din ce în ce mai abili, dar și mai periculoși.

O noua tehnică numită PhotoGuard dezvoltată de MIT CSAIL, ar putea ajuta la prevenirea multor neplăceri.

Cum funcționează PhotoGuard, de fapt

PhotoGuard funcționează prin modificarea pixelilor selectați dintr-o imagine, astfel încât aceștia să perturbe capacitatea AI de a înțelege imaginea.

Aceste perturbații sunt invizibile pentru ochiul uman, dar ușor de citit de mașini. Metoda de introducere a acestora vizează reprezentarea modelului algoritmic a imaginii țintă, împiedicând, în esență, AI să înțeleagă la ce se uită, de fapt.

Metoda de atac devine și mai intensivă din punct de vedere computațional și camuflează o imagine, reușind să o facă, în ochii AI, să pară cu totul altă imagine.

„Atacul codificatorului face modelul să creadă că imaginea de intrare, care urmează să fie editată, este o altă imagine, de exemplu, o imagine gri”, a declarat doctorat MIT și autorul principal al lucrării, Hadi Salman, pentru Engadged.

„În timp ce difuzarea atacul, forțează modelul de difuzie să facă editări către o imagine țintă care poate fi și o imagine gri sau aleatorie”, a mai spus acesta.

Tehnica nu este sigură, cei rău intenționați ar putea face inginerie inversă cu imaginea protejată, potențial prin adăugarea de zgomot digital, decupare sau răsturnând poza.

„O abordare de colaborare care implică dezvoltatori de modele, platforme de social media și factori de decizie politică prezintă o apărare solidă împotriva manipulării neautorizate a imaginilor. Lucrul la această problemă presantă este de o importanță capitală astăzi”, a mai spus Salman într-un comunicat.

„Și, deși sunt bucuros să contribui la această soluție, este nevoie de multă muncă pentru ca această protecție să fie practică. Companiile care dezvoltă aceste modele trebuie să investească în proiectarea de metode de imunizare împotriva posibilelor amenințări reprezentate de aceste instrumente AI”, s-a concluzionat.