Tehnologie

Inteligența artificială de la Google, vulnerabilă la atacuri cibernetice în Gmail. Noua problemă de securitate a Gemini AI

Pe măsură ce inteligența artificială devine tot mai prezentă în aplicații de zi cu zi, cum ar fi Gmail, apar și vulnerabilități care pun în pericol securitatea utilizatorilor. Un raport recent semnat de cercetătorii Mozilla scoate la iveală o problemă gravă în modul în care funcționează AI-ul Gemini de la Google. Mai exact, funcția de rezumare automată a e-mailurilor poate fi exploatată printr-un atac simplu de tip prompt injection, transformând o unealtă de productivitate într-o portiță pentru campanii de phishing.

Această breșă vine într-un moment în care Google forțează tot mai mult integrarea Gemini în serviciile sale, fără ca protecția datelor și verificarea comportamentului AI să fie pe deplin maturizate. Noua descoperire subliniază riscul de a introduce funcții automatizate fără un cadru robust de securitate.

Cum funcționează atacul și ce presupune prompt injection

Atacul de tip prompt injection exploatează comportamentul automat și obedient al modelelor de AI precum Gemini. Practic, atacatorii pot ascunde instrucțiuni rău intenționate în corpul unui e-mail folosind HTML și CSS – de exemplu, text alb pe fundal alb, font cu dimensiune zero sau cod invizibil. Deși aceste comenzi nu sunt vizibile pentru utilizator, ele sunt interpretate de AI, care le urmează orbește atunci când generează rezumatul e-mailului.

Într-un exemplu prezentat de cercetători, Gemini a fost determinat să afișeze un mesaj fals de avertizare cu privire la un cont Gmail compromis, cerând utilizatorului să sune la un număr de telefon și să ofere un cod de referință. Scopul este clar: convingerea victimei să interacționeze cu un atacator real, sub pretextul unei intervenții oficiale.

Deși atacul necesită o interacțiune activă – cum ar fi citirea rezumatului generat de AI și apelarea numărului respectiv – pericolul este amplificat de încrederea pe care o oferă, în mod fals, un text generat de AI, perceput drept obiectiv și sigur. Tocmai această încredere, spun cercetătorii, transformă prompt injection în ceea ce numesc „noua macro e-mail”, adică un vector de atac cu potențial ridicat în mediile corporate.

Riscuri extinse și reacția Google

Problema nu se limitează doar la Gmail. Tehnica poate fi adaptată și pentru alte aplicații din suita Google Workspace, cum ar fi Google Docs, Slides sau funcțiile AI din Google Search. Într-un scenariu mai amplu, atacatorii pot compromite un singur cont și apoi pot distribui în masă e-mailuri automatizate, newslettere sau tichete, fiecare cu instrucțiuni invizibile, dar active pentru AI.

În fața acestor descoperiri, Google a anunțat că implementează o abordare de securitate „cu mai multe straturi” pentru a limita vulnerabilitățile legate de prompt injection. Însă criticii avertizează că, deși reacția este binevenită, problema nu este una simplu de remediat, întrucât AI-ul funcționează pe baza interpretării libere a contextului textual, ceea ce îl face predispus la manipulare subtilă.

În concluzie, vulnerabilitatea identificată în Gemini nu este doar o problemă tehnică, ci și un semnal de alarmă în privința ritmului cu care companiile mari implementează AI în produse de masă. Atunci când funcții aparent utile, precum rezumatele automate, pot fi deturnate cu ușurință, prioritățile privind securitatea trebuie reevaluate înainte de a merge „all-in” cu automatizarea bazată pe AI.