Tehnologie

Când dispare cenzura din ChatGPT. Explicațiile despre siguranța AI au legătură cu concurența OpenAI

Modificările controversate din cadrul de siguranță OpenAI, într-o cursă periculoasă cu timpul și competiția.

Într-o mișcare care a stârnit reacții aprinse în comunitatea AI, OpenAI a actualizat Preparedness Framework, sistemul său intern folosit pentru a evalua siguranța modelelor de inteligență artificială și pentru a decide nivelul de protecție necesar în timpul dezvoltării și lansării acestora. Cea mai controversată parte a actualizării? Compania anunță că ar putea ajusta standardele de siguranță dacă un competitor lansează un sistem „cu risc ridicat” fără protecții comparabile.

Această declarație a pus pe jar atât cercetătorii din domeniu, cât și activiștii pentru AI etică. Aparent, OpenAI încearcă să găsească un echilibru între menținerea unui standard de siguranță și nevoia de a ține pasul cu ritmul alert impus de rivali. Însă mulți văd în asta un pas periculos spre o competiție de tip „cine lansează primul”, în detrimentul unei dezvoltări responsabile.

Ce înseamnă de fapt „ajustarea” siguranței?

Actualizarea publicată pe blogul oficial OpenAI precizează că, în cazul în care un alt laborator AI lansează un model de tip frontier — adică extrem de avansat — fără măsuri de protecție echivalente, OpenAI ar putea reduce cerințele proprii pentru a putea răspunde rapid la provocare. Cu toate acestea, compania afirmă că va face acest lucru doar dacă va confirma riguros că „peisajul riscurilor s-a schimbat cu adevărat”, că ajustarea nu crește semnificativ riscul de daune severe, și că nivelul de siguranță rămâne „mai protector” decât cel al competitorilor.

Cu alte cuvinte, OpenAI își rezervă dreptul de a-și adapta politicile nu în funcție de un etalon absolut de siguranță, ci în funcție de ce fac ceilalți jucători de pe piață. Asta ridică o întrebare delicată: dacă toți scad standardele, cine mai trage semnalul de alarmă?

Această flexibilitate declarată vine într-un moment în care OpenAI este deja criticată pentru graba cu care lansează noi modele și pentru lipsa de transparență. Potrivit Financial Times, echipele de testare au avut sub o săptămână pentru a evalua un model major ce urmează să fie lansat, o perioadă semnificativ mai scurtă față de ciclurile anterioare.

Automatizare în testare și riscurile „modelului critic”

Un alt aspect cheie al actualizării este dependența tot mai mare de evaluări automate în testarea noilor modele. Deși OpenAI susține că nu a renunțat complet la testarea umană, compania declară că a construit „un set în creștere de evaluări automate” care pot ține pasul cu ritmul rapid al lansărilor.

Această tranziție ridică și ea îngrijorări. Evaluările automate pot accelera procesul, dar oferă suficiente garanții în fața riscurilor de ordin social, politic sau psihologic? Poți avea încredere într-un sistem care se evaluează singur, fără o doză sănătoasă de scepticism uman?

Mai mult, noul Preparedness Framework redefinește categoriile de risc. Modelele sunt acum împărțite în două clase:

Capabilitate înaltă („high capability”): modele care pot amplifica rute existente de a produce daune severe;
Capabilitate critică („critical capability”): modele care introduc căi complet noi de a provoca daune grave, fără precedent.

Pentru ambele categorii, OpenAI afirmă că sunt necesare protecții proporționale cu riscurile. În cazul modelelor critice, aceste protecții trebuie aplicate chiar în timpul dezvoltării, nu doar înainte de lansare.

Îngrijorarea majoră apare din posibilitatea ca aceste modele — în special cele capabile să-și ascundă abilitățile, să ocolească măsuri de siguranță, să prevină oprirea sau să se auto-replice — să scape de sub control. Într-un scenariu în care aceste modele ajung să fie lansate fără testări riguroase, consecințele ar putea fi imposibil de anticipat sau de controlat.

Presiunea concurenței și acuzațiile de compromis

Actualizarea Preparedness Framework vine pe fondul unor tensiuni tot mai mari între OpenAI și fostii angajați ai companiei. Doar săptămâna trecută, 12 foști angajați au depus un memoriu în procesul intentat de Elon Musk împotriva OpenAI, susținând că reorganizarea corporatistă planificată ar putea încuraja compania să ignore tot mai mult standardele de siguranță.

Mai grav, aceștia susțin că raportările interne privind testările de siguranță nu mai sunt transparente și nu reflectă nivelul real de evaluare practicat înaintea lansării unor modele avansate. Aceleași acuzații apar și în presă: OpenAI ar fi efectuat testele pe versiuni preliminare ale modelelor, nu pe cele efectiv lansate publicului. Asta ar echivala cu a testa o mașină în garaj și apoi a trimite alt prototip direct pe autostradă.

În replică, OpenAI a respins acuzațiile și a reiterat că nu face compromisuri pe partea de siguranță. Dar noile reglementări și tonul comunicatului oficial sugerează că realitatea este mult mai nuanțată. Într-un peisaj dominat de o cursă acerbă între giganții AI, presiunea de a fi primul care lansează un nou model este uriașă. Și acolo unde competiția înlocuiește prudența, siguranța devine primul compromis.

Ce urmează și de ce e important să fim atenți

Modificările din Preparedness Framework ar putea părea tehnice, dar au implicații directe asupra modului în care vom interacționa cu AI-ul în anii următori. Dacă un model ajunge să fie implementat pe scară largă — în educație, sănătate, justiție sau în mediul militar — fără să fi fost testat suficient, cine va răspunde pentru eventualele greșeli? Cine va garanta că modelele AI nu vor amplifica discriminarea, polarizarea socială sau manipularea informațională?

Deocamdată, OpenAI promite că își va păstra standardele la un nivel „mai protector”. Dar realitatea este că acest nivel e acum definit în raport cu competiția, nu cu un set de principii etice stabile. Ceea ce înseamnă că, dacă ceilalți coboară ștacheta, și OpenAI ar putea face la fel – poate nu mult, dar suficient cât să conteze.

Pentru publicul larg, toate aceste discuții pot părea abstracte. Însă în spatele fiecărui chatbot, asistent virtual sau algoritm de recomandare, se află decizii concrete despre ce înseamnă „sigur” într-o lume controlată de algoritmi. Și dacă nu suntem atenți acum, e posibil ca într-o zi să fim nevoiți să discutăm despre asta când va fi deja prea târziu.