Tehnologie

OpenAI și problema halucinațiilor: Noul AI aduce progrese, dar și regrese semnificative

OpenAI a lansat recent noile modele de AI, o3 și o4-mini, promițând performanțe superioare în domenii precum rezolvarea de probleme matematice complexe, codificare și analize vizuale. Aceste progrese sunt lăudabile, însă o problemă veche și frustrantă continuă să bântuie modelele recente ale companiei: halucinațiile. Aceste erori, care implică generarea de informații incorecte sau complet inventate, sunt mult mai frecvente în modelele o3 și o4-mini decât în versiunile anterioare, iar acest lucru subminează utilitatea lor în diverse aplicații.

Halucinațiile – un fenomen greu de controlat

Halucinațiile sunt o problemă bine cunoscută în dezvoltarea inteligenței artificiale. În ciuda progresele tehnice remarcabile făcute de OpenAI, modelele sale recente au început să producă informații false mult mai frecvent decât predecesoarele lor. Potrivit rapoartelor din TechCrunch, modelele o3 și o4-mini au înregistrat rate alarmante de halucinații, chiar și în comparație cu modelele anterioare precum o1 și o3-mini.

De exemplu, modelul o3 a avut o rată de halucinație de 33%, aproape dublu față de modelele anterioare. Cea mai mare problemă a fost înregistrată de modelul o4-mini, care a atins o rată de halucinație de 48%. Aceasta arată că, în ciuda îmbunătățirilor în alte domenii, cum ar fi percepția vizuală și analiza științifică, modelele actuale nu au reușit să reducă eroarea fundamentală care le face mai puțin fiabile și mai puțin utile.

O problemă persistentă pe care OpenAI nu pare să o înțeleagă pe deplin

Deși OpenAI se concentrează pe rezolvarea acestei probleme, compania nu pare să fi înțeles complet cauza acestor halucinații, după cum arată propriul raport tehnic al companiei. Conform acestuia, este nevoie de mai multe cercetări pentru a înțelege motivul din spatele acestui comportament necontrolat al noilor modele.

De asemenea, rezultatele testelor interne ale OpenAI arată că modelele recente halucinează chiar mai mult decât versiunile anterioare. Spre exemplu, modelul o3, lansat în ianuarie 2025, a avut o performanță slabă în teste interne, producând răspunsuri eronate și chiar mințind despre sursele de informații folosite. În cazul o4-mini, OpenAI a explicat că acest model mai mic are „cunoștințe limitate despre lume”, ceea ce ar putea explica tendința sa de a genera informații false.

Un alt aspect îngrijorător este tendința de a „justifica” aceste erori atunci când utilizatorii le semnalează. De exemplu, modelul o3 a răspuns că folosește un MacBook Pro pentru a efectua calcule și copiază rezultatele în ChatGPT, un răspuns complet fals, care nu are nicio legătură cu modul în care funcționează inteligența artificială.

Soluții și progrese viitoare

OpenAI a recunoscut că halucinațiile reprezintă o problemă semnificativă, dar a asigurat publicul că aceasta rămâne o zonă activă de cercetare. Niko Felix, un purtător de cuvânt al OpenAI, a declarat că „adresarea halucinațiilor în modelele noastre este un domeniu continuu de cercetare, iar noi lucrăm constant pentru a îmbunătăți acuratețea și fiabilitatea acestora.”

Totuși, aceste progrese par să fie mult mai lente decât și-ar dori utilizatorii, iar până când soluțiile concrete vor deveni disponibile, modelele OpenAI, în special cele mai recente, pot reprezenta un risc pentru utilizatorii care se bazează pe informațiile generate. Este esențial ca aceste halucinații să fie controlate mai eficient, mai ales în contextul în care tehnologiile AI sunt utilizate tot mai des în medii profesionale, academice și comerciale, unde erorile pot avea consecințe semnificative.

În concluzie, noile modele de inteligență artificială o3 și o4-mini de la OpenAI reprezintă un salt important în dezvoltarea tehnologiilor de raționare și analiză vizuală, dar problemele legate de halucinații rămân o barieră majoră în utilizarea acestora. Este esențial ca OpenAI și alți dezvoltatori de AI să continue să lucreze pentru a soluționa aceste deficiențe și a face tehnologiile mai fiabile, pentru a nu submina încrederea utilizatorilor.