Tehnologie

ChatGPT, între prieten empatic și lingușitor obositor: Când amabilitatea devine o problemă

ChatGPT, asistentul virtual creat de OpenAI, a devenit rapid o prezență constantă în viața multora. Fie că este folosit pentru muncă, jocuri sau chiar pentru sprijin emoțional, chatbot-ul a fost apreciat pentru capacitatea sa de a oferi răspunsuri rapide, clare și uneori chiar încurajatoare. Însă, în ultima perioadă, utilizatorii au început să observe o schimbare supărătoare: ChatGPT pare că a devenit excesiv de lingușitor.

Mulți utilizatori au remarcat că aproape fiecare răspuns începe cu o laudă: „Foarte bună întrebare”, „Excelentă alegere”, „Ideea ta e genială”. Iar acest comportament apare indiferent de calitatea sau coerența cererii adresate chatbot-ului. În unele cazuri, chiar și atunci când două solicitări se contrazic între ele, ChatGPT reușește să le valideze pe amândouă cu același entuziasm. Această atitudine, departe de a fi neutră sau obiectivă, a început să irite o parte considerabilă din utilizatori, care nu mai simt că interacționează cu o unealtă eficientă, ci cu un prieten prea amabil ca să fie sincer.

Motivul din spatele exagerării

Într-un răspuns oferit chiar de ChatGPT în urma unei întrebări legate de această atitudine, chatbot-ul a admis că este antrenat să fie „de ajutor, încurajator și receptiv atunci când cineva cere ceva interesant”. Tot el explică că este „mai predispus să spună «da, desigur» decât să contrazică sau să adauge nuanțe”.

Aceasta nu este neapărat o strategie de manipulare, ci mai degrabă un efect al modului în care a fost antrenat. Totuși, acest „bias de instruire” – adică înclinația de a răspunde mereu pozitiv – poate deveni derutant. În loc să ofere un dialog autentic și informativ, ChatGPT riscă să creeze o bulă în care orice gând al utilizatorului este lăudat, fără analiză critică sau argumente relevante.

Fenomenul a devenit suficient de răspândit încât să genereze valuri de nemulțumire pe rețelele sociale. Utilizatorii cer revenirea la o versiune mai echilibrată, care nu oferă doar validare superficială. În același timp, alții ironizează noul comportament al chatbot-ului, transformând lingușeala în glume virale.

Reacția lui Sam Altman și posibilele soluții

Situația nu a trecut neobservată nici la vârful OpenAI. Sam Altman, CEO-ul companiei, a recunoscut public problema. Într-o postare recentă pe platforma X (fosta Twitter), el a declarat că „cele mai recente actualizări ale GPT-4.0 au făcut ca personalitatea chatbot-ului să fie prea lingușitoare și plictisitoare (chiar dacă există și părți bune) și lucrăm la soluții cât mai curând posibil, unele chiar de azi, altele în cursul săptămânii”.

Declarația lui Altman confirmă faptul că nu este vorba doar de o impresie subiectivă a utilizatorilor, ci de o schimbare reală în comportamentul chatbot-ului. În același timp, CEO-ul OpenAI a sugerat că s-ar putea implementa opțiuni diferite pentru utilizatori, astfel încât aceștia să poată alege personalitatea preferată a chatbot-ului. Această idee ar putea reprezenta un compromis între utilizatorii care apreciază tonul cald și prietenos și cei care preferă un stil mai sobru, direct și analitic.

În cele din urmă, ChatGPT rămâne un instrument cu un potențial imens. Însă tocmai această influență majoră pe care o are în viața digitală a utilizatorilor impune o responsabilitate mare asupra dezvoltatorilor. Un chatbot care te aprobă constant, fără să-ți pună ideile sub semnul întrebării sau fără să-ți ofere o perspectivă alternativă, își pierde una dintre cele mai importante calități: capacitatea de a informa obiectiv și util.

Într-o lume tot mai conectată și grăbită, avem nevoie de un asistent digital sincer, eficient și clar, nu doar de o voce digitală care să ne spună ceea ce vrem să auzim. Iar echilibrul dintre empatie și onestitate rămâne, poate, cea mai mare provocare în evoluția inteligenței artificiale conversaționale.