AI-ul care visează cu ochii deschiși: de ce „halucinează” modelele inteligente pe măsură ce devin mai avansate
Sistemele de inteligență artificială au evoluat rapid în ultimii ani, devenind din ce în ce mai sofisticate. Însă odată cu această creștere a performanței, apare și o problemă aparent paradoxală: modelele AI moderne „halucinează” mai des decât versiunile anterioare. Cu alte cuvinte, în loc să ofere doar informații reale și verificate, pot genera conținut fals, dar exprimat convingător și fluent, lucru care poate induce în eroare utilizatorii fără ca aceștia să-și dea seama.
Potrivit cercetărilor realizate de OpenAI, modelele o3 și o4-mini – unele dintre cele mai avansate din prezent – au înregistrat rate de halucinație de 33%, respectiv 48%, în timpul testării cu benchmark-ul PersonQA. Această rată este de peste două ori mai mare decât la modelele anterioare. Chiar dacă oferă în general răspunsuri mai detaliate și mai sofisticate, aceste modele devin mai susceptibile la erori subtile și greu de detectat, scrie LiveScience.
Fenomenul, numit halucinație AI, constă în crearea de informații complet fabricate – evenimente, citate, surse sau fapte care nu au nicio bază în realitate. Iar asta devine periculos în momentul în care textul generat este coerent, fluent și pare plauzibil. Eleanor Watson, cercetătoare în cadrul IEEE și expertă în etica AI, avertizează că un astfel de conținut poate părea credibil pentru cititori, mai ales dacă este livrat într-un format bine scris și bine argumentat.
Halucinațiile: defect sau trăsătură esențială?
În mod surprinzător, mulți specialiști în domeniul AI consideră că aceste halucinații nu sunt doar inevitabile, ci chiar necesare. Sohrob Kazerounian, cercetător la Vectra AI, susține că, pentru a produce idei creative sau soluții noi, modelele de limbaj trebuie să „imagineze”, la fel cum o fac oamenii când visează sau explorează concepte noi. „Tot ce produce un sistem LLM este o halucinație – doar că unele sunt adevărate”, afirmă el.
Acest tip de generare este de fapt esența AI-ului creativ: dacă un model s-ar limita doar la reproducerea exactă a datelor pe care le-a învățat, nu ar putea produce nimic original. Ar răspunde doar cu ceea ce a văzut deja – o formă avansată de copiat. Așadar, sistemele actuale au nevoie să „viseze” puțin pentru a scrie un poem în stilul lui Bob Dylan, dar despre singularitatea AI, sau pentru a sugera o moleculă nouă într-un proces de descoperire științifică.
Problema intervine atunci când această creativitate este confundată cu acuratețea. În domenii sensibile precum medicina, justiția sau finanțele, un răspuns incorect poate avea consecințe serioase. Iar cum modelele mai avansate creează conținut tot mai complex și „credibil”, identificarea halucinațiilor devine tot mai dificilă. Watson subliniază că riscul nu e doar în greșelile evidente, ci mai ales în distorsiunile subtile, greu de detectat fără o verificare minuțioasă.
Opacitate algoritmică și responsabilitate
Un alt aspect îngrijorător este faptul că nici dezvoltatorii nu pot explica pe deplin cum iau deciziile aceste modele. CEO-ul Anthropic, Dario Amodei, a recunoscut recent că nu se cunoaște în detaliu modul în care AI-ul generează un anumit răspuns – de ce alege un cuvânt și nu altul, sau de ce apare o greșeală în ciuda altor exemple corecte. Această opacitate transformă modelele LLM într-o „cutie neagră”, ceea ce face supravegherea și controlul extrem de complicate.
Pe acest fundal, ideea de responsabilizare a AI-ului devine problematică. Dacă nici programatorii nu știu cum funcționează exact, cine este responsabil pentru greșelile pe care le face? Deocamdată, soluția pare să fie o vigilență sporită din partea utilizatorilor. Eleanor Watson recomandă tratarea răspunsurilor AI cu același scepticism cu care ai trata sfaturile unui necunoscut – adică să le verifici, să le confrunți cu alte surse și să nu le iei niciodată drept literă de lege.
Tot mai multe cazuri documentate arată cum chatboturi AI au inventat politici inexistente, citate fabricate, date greșite sau chiar sfaturi medicale periculoase. De aceea, chiar dacă sistemele devin mai inteligente, nu înseamnă automat că devin și mai de încredere.
Concluzia: între imaginație și realitate, AI-ul rămâne o unealtă care trebuie supravegheată
Așadar, nu e vorba că AI-ul devine „mai prost” pe măsură ce avansează, ci că devine mai convingător – chiar și atunci când greșește. Iar asta e o combinație periculoasă, mai ales dacă alegi să te bazezi pe el fără să verifici ce spune.
Pe viitor, modelele AI vor deveni tot mai integrate în viața de zi cu zi, de la asistenți digitali la sisteme educaționale sau aplicații medicale. Dar tocmai pentru că sunt din ce în ce mai capabile, trebuie tratate cu discernământ. Chiar dacă îți poate scrie un eseu în stilul lui Kafka sau un cod pentru o aplicație complexă, AI-ul tot poate să „viseze” – iar visele nu sunt întotdeauna adevărate.