Tehnologie

Meta repară ce-a stricat – Discuțiile cu inteligența artificială a lui Mark Zuckerberg sunt, susține compania, din nou private

Meta a remediat o vulnerabilitate de securitate ce permitea accesul neautorizat la prompturile și răspunsurile AI ale altor utilizatori, prevenind astfel potențiale scurgeri de date.

Meta a confirmat rezolvarea unui bug de securitate care afecta aplicația sa de inteligență artificială, Meta AI. Vulnerabilitatea permitea utilizatorilor să vizualizeze conversațiile și conținutul generat AI al altor persoane, scrie TechCrunch.

Descoperirea a fost făcută de Sandeep Hodkasia, fondatorul firmei AppSecure, specializată în testarea securității. El a raportat problema pe 26 decembrie 2024, iar compania i-a acordat o recompensă de 10.000 de dolari pentru divulgarea responsabilă prin programul de bug bounty.

Meta a introdus corecția pe 24 ianuarie 2025 și a subliniat că nu există dovezi că vulnerabilitatea a fost exploatată rău-intenționat. Ryan Daniels, purtătorul de cuvânt al companiei, a confirmat pentru sursa citată anterior că cercetătorul a fost recompensat, iar datele utilizatorilor au rămas în siguranță.

Cum a fost descoperită vulnerabilitatea Meta AI

Hodkasia a identificat problema analizând modul în care Meta AI le permite utilizatorilor conectați să își editeze prompturile pentru a regenera texte și imagini.

Fiecare prompt era asociat unui număr unic atribuit de serverele Meta. Monitorizând traficul de rețea din browser, acesta a descoperit că modificând identificatorul numeric putea accesa prompturile și răspunsurile AI generate de alți utilizatori.

Serverele Meta nu verificau suficient dacă persoana care solicita datele era autorizată, iar numerotarea prompturilor era „ușor de ghicit”. Un atacator ar fi putut folosi instrumente automatizate pentru a schimba rapid numerele și a extrage volume mari de informații sensibile.

Meta a reacționat rapid după notificare și a blocat acest comportament. Deși bug-ul era grav, compania susține că nu a identificat nicio tentativă de abuz înainte de remediere.

Confidențialitatea AI, sub presiune

De altfel, situația demonstrază provocările de securitate pe care le ridică lansările rapide de aplicații AI, într-un moment în care marii giganți tehnologici concurează pentru a domina piața.

Meta AI, aplicația lansată la începutul lui 2025 pentru a concura cu ChatGPT, a avut deja probleme de confidențialitate, unii utilizatori descoperind că au publicat fără să vrea conversații private.

Incidentul ridică, așa cum e firesc, întrebări despre cât de bine sunt protejate datele utilizatorilor în ecosistemele AI emergente. Specialiștii în securitate cibernetică le recomandă companiilor să testeze cu mare atenție la detaliu infrastructura înainte de lansare.