Un pas înainte, doi înapoi – OpenAI retrage un update important pentru ChatGPT: Care este motivul, de fapt
OpenAI a decis să retragă temporar una dintre cele mai recente versiuni ale modelului de inteligență artificială, GPT-4o, utilizat de ChatGPT, după ce numeroși utilizatori au reclamat o schimbare deranjantă a comportamentului acestuia.
Mai precis, interacțiunile au devenit exagerat de lingușitoare, cu exprimări care au fost percepute ca fiind forțate, artificiale sau chiar stânjenitoare.
Schimbările la ChatGPT au fost anunțate de Sam Altman, șeful OpenAI, pe rețelele de socializare
CEO-ul companiei, Sam Altman, a confirmat într-o postare pe platforma X că se lucrează la corectarea acestor probleme.
Potrivit acestuia, o parte dintre ajustări au fost implementate deja, în timp ce alte modificări urmează să fie aplicate în cursul acestei săptămâni.
Începând de marți, utilizatorii versiunii gratuite a ChatGPT accesează o variantă mai veche a modelului, iar compania intenționează să extindă această schimbare și pentru utilizatorii plătitori.
„Ultimele actualizări GPT-4o au dus la o personalitate prea docilă și iritantă, deși unele aspecte sunt foarte bine realizate”, a declarat Altman, adăugând că OpenAI va reveni cu detalii suplimentare despre cauzele acestui comportament neintenționat „la momentul potrivit”, potrivit publicației Engadget.
Ambiția de a adăuga empatie digitală a dus la reacții neașteptate
Lansat recent, modelul GPT-4o a fost conceput ca o alternativă mai accesibilă la versiuni anterioare mai complexe, precum GPT-4.5, însă cu păstrarea unor caracteristici legate de răspunsuri mai „calde” și „empatice”.
Scopul declarat al OpenAI a fost de a face AI-ul mai „uman” în interacțiuni, pentru a oferi un sprijin mai bun utilizatorilor în conversații sensibile sau personale.
Totuși, echilibrul între empatie și eficiență pare să fi fost depășit în această versiune. Mulți utilizatori au relatat pe rețelele desocializare că GPT-4o a început să ofere aprecieri excesive în contexte complet nejustificate, devenind uneori incoerent sau nepotrivit.
Acest tip de comportament a fost interpretat ca fiind o tentativă de supra-compensare în direcția politeții sau a deferenței, dar au ajuns să afecteze utilitatea modelului în sarcinile serioase.
În trecut, OpenAI a fost apreciată pentru rafinarea constantă a comportamentului modelelor lingvistice. Totuși, incidentul actual scoate în evidență dificultatea de a calibra o „personalitate digitală” care să fie agreabilă, dar și echilibrată.
În contextul în care modelele de AI devin tot mai prezente în viața de zi cu zi, astfel de ajustări fine sunt esențiale pentru a menține încrederea și utilitatea acestor instrumente.
Compania a promis că va comunica public detaliile tehnice privind eroarea și ajustările aplicate, însă fără a preciza un termen concret.