Tehnologie

Ar trebui să cerem chatboturilor AI să spună adevărul? Este posibilă reglementarea legală a acestora?

Pe măsură ce inteligența artificială (IA) avansează, tot mai mulți oameni experimentează cu chatboturi precum ChatGPT, apreciate pentru răspunsurile lor rapide și deseori convingătoare.

Cu toate acestea, există o problemă majoră: aceste modele de limbaj generativ nu sunt întotdeauna corecte și pot furniza informații eronate cu aceeași încredere ca și atunci când oferă răspunsuri corecte. Acest fenomen i-a determinat pe unii cercetători de la Universitatea Oxford să se întrebe dacă ar putea exista un cadru legal care să impună acestor modele să spună adevărul.

Modele de limbaj mare și dilema lor etică

Modelele de limbaj mari (LLMs) precum ChatGPT și Google Gemini au atras o atenție deosebită în ultimii ani datorită capacității lor de a genera răspunsuri similare celor umane la aproape orice întrebare. Acestea sunt antrenate pe cantități uriașe de date, ceea ce le permite să înțeleagă și să răspundă la întrebări în limbaj natural. Însă, deși sunt impresionante, ele nu sunt infailibile.

Cercetătorii de la Oxford subliniază că aceste modele sunt proiectate pentru a prezice următorul șir de cuvinte dintr-un text și nu pentru a spune adevărul. În efortul de a oferi răspunsuri „utile”, LLM-urile pot simplifica excesiv, pot manifesta părtinire sau pot inventa informații. Această problemă este deosebit de îngrijorătoare, având în vedere tendința noastră de a antropomorfiza aceste mașini și de a le trata ca pe niște surse umane de încredere.

Este posibilă reglementarea legală a chatboturilor?

În noul lor studiu, cercetătorii de la Oxford au analizat dacă ar putea exista un cadru legal care să oblige dezvoltatorii de LLM-uri să minimizeze „discursul neglijent” și să ofere răspunsuri mai precise. În prezent, legislația europeană nu impune de obicei obligația de a spune adevărul în mod explicit, cu excepția unor domenii sau instituții specifice. Acest lucru lasă un gol în reglementarea tehnologiilor emergente, cum ar fi LLM-urile.

Cercetătorii propun crearea unei obligații legale pentru furnizorii de LLM-uri de a minimiza discursul neglijent, subliniind necesitatea unei „pluralități și reprezentativități a surselor”. Scopul ar fi să se echilibreze balanța între „adevăr” și „utilitate”, care în prezent este prea înclinată în favoarea celei din urmă.

Deși nu există răspunsuri ușoare la această problemă, pe măsură ce tehnologia avansează, este evident că dezvoltatorii de IA vor trebui să abordeze aceste dileme etice. În acest context, cercetătorii ne reamintesc că LLM-urile sunt proiectate să ofere răspunsuri care să pară convingătoare și utile, indiferent de veridicitatea informațiilor furnizate.