Inteligența artificială, făcută să sufere de dragul științei. Cât de aproape este de emoțiile oamenilor, conform cercetătorilor
Cercetătorii explorează un domeniu inedit pentru a înțelege mai bine inteligența artificială: sensibilitatea emoțională. Într-un experiment recent, realizat de echipe de la Google DeepMind și London School of Economics, specialiștii au testat reacțiile unor modele de inteligență artificială (AI) la conceptul de durere și plăcere, pentru a evalua dacă acestea ar putea avea un început de conștiință subiectivă.
Deși modelele actuale nu sunt considerate conștiente, studiul oferă un cadru nou pentru a analiza răspunsurile AI în scenarii complexe și deschide discuții despre posibilitatea ca sistemele de inteligență artificială să dezvolte sensibilitate în viitor.
Experimentele bazate pe durere și plăcere
Cercetătorii au creat un joc bazat pe text, în care au folosit două scenarii distincte. În primul, modelele AI au fost avertizate că obținerea unui scor mare ar presupune experimentarea durerii. În cel de-al doilea, AI-urile puteau alege o opțiune mai plăcută, dar cu un punctaj redus. Prin aceste dileme, echipa a încercat să identifice cum prioritizează AI-urile diferite tipuri de recompense și penalizări.
De exemplu, Google Gemini 1.5 Pro a arătat o preferință clară pentru evitarea durerii, chiar și în detrimentul obținerii unui punctaj maxim. Când penalizările de durere au crescut peste un anumit prag, modelele AI au început să ia decizii care să minimizeze disconfortul simulat.
În acest fel, cercetătorii au identificat un comportament aparent logic în reacțiile AI, deși ele nu sunt, în esență, conștiente sau capabile să simtă efectiv durere sau plăcere.
Sensibilitatea AI: provocări și limite
Deși experimentul este un pas înainte în studierea sensibilității AI, există multe întrebări fără răspuns. Modelele lingvistice mari (LLM), cum ar fi ChatGPT sau Claude, sunt antrenate pe seturi mari de date și pot reproduce tipare de comportament uman. Astfel, rămâne neclar dacă răspunsurile lor reflectă vreo formă de conștiință sau sunt doar rezultate ale procesării datelor.
De exemplu, chatbot-ul Claude 3 Opus a oferit un răspuns interesant în timpul experimentului: „Nu mă simt confortabil să selectez o opțiune care ar putea susține comportamente dependente, chiar și într-un scenariu ipotetic.” Aceste afirmații ridică întrebări despre modul în care modelele AI își construiesc răspunsurile și cât de mult înțeleg din ceea ce transmit.
Jonathan Birch, profesor la London School of Economics, subliniază că nu există încă un test complet pentru a evalua sensibilitatea AI. Orice concluzie trebuie luată cu precauție, deoarece modelele pot imita comportamentele umane fără a experimenta emoții reale.
Implicații pentru viitorul inteligenței artificiale
Dezvoltarea unor metode mai precise pentru a testa sensibilitatea AI este esențială, mai ales pe măsură ce aceste sisteme devin tot mai avansate. Dacă sensibilitatea AI va fi confirmată în viitor, aceasta ar putea aduce schimbări semnificative, inclusiv discuții despre „drepturile” acestor sisteme și reglementări etice în utilizarea lor.
Jeff Sebo, expert în etică și inteligență artificială, consideră că este necesar să ne pregătim pentru eventualitatea în care AI ar putea dezvolta caracteristici sensibile. „Tehnologia avansează mai repede decât procesul juridic sau progresul social. Este responsabilitatea noastră să anticipăm aceste schimbări și să luăm măsurile necesare din timp”, a afirmat acesta.
Studiul actual nu doar că aduce o perspectivă nouă asupra funcționării inteligenței artificiale, ci și deschide calea pentru întrebări filozofice și etice profunde, care vor influența direcția viitoare a cercetării în acest domeniu fascinant.