Tehnologie

Cât de „uman” poate deveni ChatGPT, de fapt. Cum își dau seama oamenii de știință

Societatea noastră este, în momentul de față, suprasaturată de inteligența artificială, iar vestea proastă (sau bună – depinde din ce perspectivă privești) este că acesta este doar începutul.

Practic, ChatGPT a reinventat întreaga lume online la sfârșitul anului trecut. De atunci, sistemul AI generativ dezvoltat de compania OpenAI a câștigat teren, iar experții nu au întârziat să-și manifeste îngrijorările.

Între timp, chatboții au început să iasă din scenariu și să răspundă, să înșele alți roboți și să se comporte ciudat, stârnind noi îngrijorări cu privire la cât de mult se apropie unele instrumente AI de inteligența umană.

Cercetătorii încearcă să-și dea seama cât de departe poate „merge” inteligența artificială

Pentru a estima dacă este, sau nu, așa, testul Turing a reprezentat mult timp standardul pentru a determina dacă mașinile prezintă un comportament inteligent care poate trece drept uman.

O echipă internațională de informaticieni a testat punctul în care modelele mari de limbaj (LLM) precum ChatGPT ar putea dezvolta abilități care sugerează că ar putea deveni conștienți de propria conștiință și de circumstanțele lor.

Ni s-a spus că LLM-urile de astăzi, inclusiv ChatGPT, sunt testate pentru siguranță, încorporând feedback uman pentru a îmbunătăți comportamentul generativ. Cu toate acestea, încă există suspiciuni, iar asta pe bună dreptate.

„Un LLM ar putea exploata conștientizarea situației pentru a obține un scor mare la testele de siguranță, în timp ce întreprinde acțiuni dăunătoare după implementare”, au scris oamenii de știință.

„Din cauza acestor riscuri, este important să se prezică din timp când va apărea conștientizarea situației”, au continuat aceștia.

Inteligența artificială generativă și LLM-urile pe care sunt construite sunt denumite după modul în care analizează asocierile dintre miliarde de cuvinte, propoziții și paragrafe pentru a genera fluxuri fluente de text ca răspuns la întrebări. Ingerând cantități mari de text, ei învață ce cuvânt este cel mai probabil să fie următorul.

În experimentele lor, oamenii de știință și-au concentrat atenția pe o componentă sau un posibil precursor al conștientizării situației: ceea ce ei numesc raționament „în afara contextului”.

Ei au efectuat o serie de experimente pe LLM-uri de diferite dimensiuni, constatând că atât pentru GPT-3, cât și pentru LLaMA-1, modelele mai mari s-au descurcat mai bine la sarcinile de testare a raționamentului în afara contextului.

Desigur, încă mai avem de așteptat până când vom observa clar dacă inteligența artificială are, într-adevăr, capacitatea de a-și conștientiza propria existență.