Cum îți „crești” AI-ul, așa îl ai – Inteligența artificială, părtinitoare în opinii, exact ca un om
Un nou studiu internațional arată că sistemele de inteligență artificială, inclusiv modelele lingvistice de tip ChatGPT, pot repeta aceleași erori de judecată întâlnite la oameni.
Chiar dacă AI-ul este proiectat să analizeze date în mod logic și să ofere răspunsuri coerente, cercetările recente indică faptul că algoritmii pot manifesta tendințe iraționale și părtinitoare atunci când sunt confruntați cu decizii ambigue sau subiective.
Studiul, publicat în 8 aprilie în revista Manufacturing & Service Operations Management, a fost realizat de cercetători din Canada și Australia, care au analizat comportamentul modelelor GPT-3.5 și GPT-4 în raport cu 18 dintre cele mai cunoscute prejudecăți cognitive umane, scrie Live Science.
Printre acestea se numără supraîncrederea, aversiunea față de risc, efectul de proprietate sau înclinația de a detecta tipare acolo unde nu există.
Cercetarea a inclus atât întrebări inspirate din psihologie, cât și scenarii comerciale realiste, precum decizii privind stocurile sau negocieri între furnizori.
Rezultatele arată că, în aproape jumătate dintre cazuri, răspunsurile date de AI reflectă comportamente similare celor umane, chiar și atunci când întrebările au fost reformulate în contexte profesionale sau tehnice.
GPT-4, mai performant, dar tot părtinitor în unele situații
Deși GPT-4 s-a descurcat mai bine decât GPT-3.5 în rezolvarea problemelor logice și matematice, el a demonstrat o preferință mai accentuată pentru soluții sigure, uneori chiar mai conservatoare decât ale oamenilor.
De exemplu, atunci când trebuia să aleagă între un rezultat sigur și unul riscant, dar potențial mai avantajos, modelul avansat a optat sistematic pentru varianta predictibilă.
Un alt aspect care nu trebuie neglijat este faptul că AI-ul nu doar că a manifestat unele dintre aceste erori cognitive, ci le-a și amplificat în anumite cazuri.
În testele privind confirmarea convingerilor preexistente (confirmation bias), GPT-4 a furnizat constant răspunsuri părtinitoare.
Totodată, s-a constatat că AI-ul are o înclinație aparte pentru a detecta false tipare în informații aleatorii, o tendință adesea întâlnită și în comportamentul uman.
Pe de altă parte, modelele au reușit să evite anumite capcane mentale, cum ar fi ignorarea ratelor de bază statistice sau influența deciziilor de costurile deja suportate.
Diferențele arată, de altfel, o complexitate crescută în modul în care AI-ul procesează informațiile și ia decizii, cu zone de performanță ridicată, dar și cu vulnerabilități evidente.
AI-ul, un „coleg de muncă” care trebuie supravegheat
Cercetătorii avertizează că aceste tendințe nu sunt doar un efect al replicării unor exemple învățate din datele de antrenament, ci par să fie parte din modul de funcționare a raționamentului AI.
Antrenarea pe volume mari de texte umane, adesea părtinitoare sau imperfecte, contribuie la reproducerea acestor prejudecăți.
Mai mult, ajustările ulterioare prin feedback uman tind să privilegieze răspunsurile plauzibile și ușor de înțeles, chiar dacă ele nu sunt cele mai logice sau corecte.
Potrivit autorilor, modelele lingvistice pot fi utile în sarcini repetitive sau cu soluții bine definite, dar se impune prudență când sunt folosite pentru decizii strategice sau în situații în care contextul și interpretarea joacă un rol important.
„AI-ul trebuie privit ca un angajat responsabil cu decizii majore: are nevoie de reguli clare și de o supraveghere constantă”, a declarat Meena Andiappan, coautoare a studiului.
În lipsa unor mecanisme de control, există riscul ca gândirea eronată să fie automatizată în loc să fie corectată.