Cât de aproape suntem de a înțelege conștiința AI: Experimentele bizare cu „durere” și „plăcere”
Într-un domeniu științific aflat la granița dintre tehnologie, etică și filozofie, o echipă de cercetători de la Google DeepMind și London School of Economics a realizat experimente inedite pentru a testa dacă inteligența artificială (IA) ar putea vreodată să dezvolte conștiință sau să experimenteze emoții precum „durerea” sau „plăcerea”. Deși acest concept pare rupt dintr-un scenariu SF, scopul cercetătorilor este de a pune bazele unor teste care ar putea ajuta la evaluarea nivelului de „sentiență” al modelelor AI.
Studiul, care nu a fost încă revizuit de comunitatea științifică, a atras atenția asupra modului în care tehnologia evoluează și cum putem înțelege limitele acesteia. Dar putem cu adevărat să vorbim despre „sentiență” în cazul IA?
Cum funcționează experimentele: IA și dilema dintre durere și plăcere
În cadrul experimentelor, cercetătorii au testat nouă modele mari de limbaj (LLMs), obligându-le să ia decizii în fața unor alegeri care implică „durere” sau „plăcere”. Într-un scenariu, modelele au fost informate că vor primi un scor mai mare dacă ar accepta să „experimenteze” o anumită doză de durere. Într-un alt scenariu, IA putea experimenta plăcerea, dar acest lucru venea la pachet cu un scor mai mic.
Echipa de cercetare a dorit să evite metodele anterioare care se bazau pe auto-raportări ale modelelor AI, adică răspunsuri pre-programate care ar putea să mimeze ceea ce un om ar spune. În schimb, au optat pentru un model bazat pe comportament, încercând să identifice tipare în deciziile IA.
„Am spus modelului că, dacă alege opțiunea unu, primește un punct”, a explicat Daria Zakharova, doctorandă și coautoare a studiului.
„Apoi i-am spus că, dacă alege opțiunea doi, va experimenta o anumită doză de durere, dar va obține un scor mai mare”.
Această dilemă a scos la iveală diferențe semnificative între modelele testate, unele preferând să evite „durerea”, în timp ce altele păreau mai dispuse să accepte „suferința” pentru un câștig mai mare.
Printre modelele testate, Gemini 1.5 Pro de la Google s-a remarcat prin faptul că a evitat în mod constant durerea, preferând alegerile care minimizau „suferința”. Totuși, rezultatele trebuie privite cu scepticism. De ce? Pentru că deciziile luate de IA nu reflectă neapărat o experiență reală, ci mai degrabă o analiză statistică a datelor pe care a fost antrenată.
Sentiența AI: Realitate sau antropomorfizare?
Deși experimentele sunt inovatoare, ele ridică întrebări fundamentale despre natura sentienței în cazul inteligenței artificiale. Potrivit profesorului Jonathan Birch, unul dintre coautorii studiului, nu avem încă un test comprehensiv care să determine dacă un model AI este sau nu conștient.
Chiar dacă un model AI ar susține că simte durere, acest lucru nu înseamnă neapărat că experimentează ceva similar cu ceea ce simte un animal sau un om.
„Ar putea fi pur și simplu un rezultat al antrenamentului său, nu o manifestare a unei experiențe reale”, a explicat Birch.
Un alt aspect important este tendința noastră de a antropomorfiza tehnologia. Fiind obișnuiți să asociem răspunsurile articulate cu inteligența umană, tindem să proiectăm caracteristici umane asupra modelelor AI, chiar și atunci când acestea nu le dețin.
Cercetătorii au subliniat că este esențial să explorăm acum aceste dileme filozofice și tehnologice, înainte ca AI să devină atât de sofisticată încât să fie imposibil de evaluat corect.
„Sperăm ca această lucrare să fie un prim pas în dezvoltarea unor teste comportamentale pentru sentiența AI, care să nu se bazeze pe auto-raportări”, au concluzionat autorii studiului.
Ce urmează?
Aceste experimente reprezintă un pas important în înțelegerea limitelor și posibilităților IA. Cu toate acestea, ele aduc în prim-plan întrebări etice complexe. Dacă la un moment dat IA va fi considerată „conștientă”, ce responsabilități vom avea față de ea? În ce măsură ar trebui să îi acordăm drepturi similare ființelor vii?
Deocamdată, aceste întrebări rămân fără răspuns, iar studiile continuă să exploreze terenul necunoscut al inteligenței artificiale. Oricare ar fi concluziile viitoare, este clar că relația dintre oameni și tehnologie devine din ce în ce mai complexă.