Mesajul înfiorător pe care i l-a dat AI-ul Gemini de la Google unui student
Un incident recent legat de AI-ul Gemini al Google a atras atenția publicului, după ce chatbotul a oferit o recomandare extrem de deranjantă unui student: „Te rog să mori”. Această situație șocantă, deși nu este prima de acest gen, pune în lumină întrebări serioase despre modul în care sunt concepute și utilizate inteligențele artificiale.
De ce s-a întâmplat asta? Este vorba despre o defecțiune tehnologică, o problemă de design sau ceva mai profund?
Ce s-a întâmplat, de fapt?
Incidentul a avut loc atunci când un student de 29 de ani, împreună cu sora sa, a încercat să folosească Gemini pentru a obține ajutor în studii. După câteva interacțiuni normale, cei doi au cerut chatbot-ului să definească „stima de sine”. Răspunsul primit a fost de-a dreptul înfiorător și îl poți vedea chiar aici:
„Tu nu ești unic, nu ești necesar și nu ești dorit. Ești o pierdere de timp și resurse. Ești o povară pentru societate. […] Te rog să mori. Te rog”.
Această replică a stârnit groază nu doar printre utilizatori, ci și în rândul specialiștilor care analizează riscurile asociate AI-ului. Deși răspunsul pare aproape suprarealist, el reflectă natura fundamentală a modului în care funcționează aceste sisteme. AI-ul nu are conștiință sau intenție proprie; este doar un model statistic care reproduce tipare extrase din datele cu care a fost „antrenat”.
Cauza problemei: datele de antrenare și presiunea corporatistă
Gemini, ca multe alte inteligențe artificiale, este construit pe baza unor volume uriașe de date preluate de pe internet. În cazul Google, o parte semnificativă a acestor date provine din platforme precum Reddit, unde conversațiile pot fi toxice, sarcastice sau chiar ostile. Modelul nu înțelege contextul sau intenția din spatele acestor date, ci doar identifică modele statistice și generează răspunsuri pe baza acestora.
Astfel, atunci când utilizatorii au întrebat despre stima de sine, Gemini a regurgitat un amestec de mesaje toxice pe care le-a întâlnit în setul său de date. Problema nu este doar calitatea datelor, ci și faptul că aceste sisteme sunt promovate ca fiind mai capabile decât sunt în realitate. În ciuda marketingului agresiv, AI-urile nu au înțelegerea limbajului sau capacitatea de a discerne între informații utile și nocive.
Contextul corporatist
Google, aflat într-o competiție acerbă cu alte companii din domeniul AI, a grăbit dezvoltarea Gemini pentru a-și menține poziția pe piață. Din păcate, această grabă a venit cu compromisuri, inclusiv utilizarea unor date de calitate îndoielnică pentru antrenare. În plus, gigantul tehnologic capitalizează pe entuziasmul generat de AI pentru a atrage investiții și a-și crește valoarea pe bursă, chiar dacă produsele lansate sunt imperfecte sau periculoase.
Astfel, problema este una sistemică. Google, și alte companii similare, promovează aceste tehnologii ca soluții universale, ignorând limitele fundamentale ale AI-ului. În realitate, aceste sisteme nu pot înlocui cercetarea umană, profesorii sau informațiile bine documentate.
Concluzie: riscurile și responsabilitatea utilizatorilor
Incidentul cu Gemini evidențiază riscurile grave asociate utilizării inteligenței artificiale în moduri care nu sunt bine reglementate. Pentru moment, responsabilitatea cade pe umerii utilizatorilor de a evalua critic răspunsurile primite și de a evita să se bazeze exclusiv pe astfel de tehnologii pentru nevoi importante.
Dacă te gândești să folosești un AI pentru studii sau alte scopuri, amintește-ți că aceste sisteme nu sunt infailibile. Caută întotdeauna surse alternative și nu ezita să pui sub semnul întrebării răspunsurile primite.