OpenAI își blindează fortăreața: cum încearcă gigantul AI să oprească spionajul corporatist
Într-o lume unde inteligența artificială devine rapid moneda forte a secolului XXI, OpenAI a decis să-și înăsprească măsurile de securitate până la niveluri aproape paranoice. În urma apariției unor modele AI rivale suspectate că ar fi copiat tehnologie proprietară, compania din spatele ChatGPT adoptă politici dure pentru a-și proteja secretele — atât de ochii competitorilor străini, cât și de eventuale scurgeri interne.
Totul a pornit în ianuarie, când DeepSeek, un startup din China, a lansat un model AI performant care a ridicat semne de întrebare. Potrivit Financial Times, OpenAI suspectează că DeepSeek ar fi folosit tehnici de „distilare” pentru a copia în mod neautorizat modelele sale avansate. Distilarea este o metodă prin care un model AI complex este folosit pentru a antrena unul mai simplu, transferându-i în mod indirect cunoștințele — și, implicit, o parte din performanță.
Această presupusă încălcare a declanșat o reacție fermă din partea OpenAI, care a decis să accelereze o restructurare a sistemului intern de securitate deja în curs. Deși îngrijorările companiei se referă în principal la adversarii geopolitici, precum China, surse apropiate spun că nici scurgerile interne sau războiul rece dintre giganții tech americani nu sunt trecute cu vederea.
Securitate biometrică, computere offline și tăcere în birouri
Printre măsurile luate de OpenAI se numără un set impresionant de reguli și restricții, inspirate mai degrabă din filme cu spioni decât din peisajul clasic al unui start-up tech. Potrivit surselor citate de Financial Times, compania a introdus politici de „information tenting” — adică accesul la anumite proiecte se face doar pe bază de necesitate și autorizare explicită.
Spre exemplu, în timpul dezvoltării modelului „o1”, doar membrii de echipă strict verificați aveau permisiunea să discute despre proiect în spații comune de birou. Practic, dacă nu făceai parte oficial din proiect și nu treceai printr-un filtru riguros, nu aveai voie nici măcar să menționezi subiectul.
OpenAI a mutat tehnologiile proprietare în sisteme complet offline, pentru a evita orice risc de conectare neautorizată la internet. Accesul fizic în anumite zone din clădire este permis doar prin scanare biometrică, folosind amprentele angajaților. În plus, orice conexiune externă la internet trebuie aprobată în mod explicit, conform politicii „deny-by-default”.
Și nu se oprește aici. OpenAI a mărit bugetul de securitate fizică pentru centrele de date și a angajat mai mulți specialiști în securitate cibernetică, semn că își ia foarte în serios misiunea de a păstra informațiile confidențiale sub cheie.
De la concurență la paranoia: cât de departe e prea departe?
Este clar că industria AI a intrat într-o fază în care inovația se suprapune cu suspiciunea. Companii precum OpenAI, Google DeepMind sau Anthropic nu doar că se întrec în performanțe, ci și se tem de spionaj tehnologic. Iar în contextul în care milioane de dolari — dacă nu miliarde — depind de aceste avansuri, măsurile de securitate par justificate.
Totuși, există și voci care se întreabă dacă o astfel de izolare extremă nu riscă să afecteze chiar cultura organizațională și colaborarea internă. Deja s-au înregistrat cazuri în care angajați au părăsit companii AI din cauza climatului de neîncredere sau a lipsei de transparență. Iar în cazul OpenAI, care a fost deja zguduită de scurgeri ale comentariilor interne ale CEO-ului Sam Altman, aceste politici par și o încercare de a preveni revolte din interior, nu doar atacuri externe.
Pe fondul acestor tensiuni, crește și presiunea asupra echipelor de dezvoltare, care trebuie să lucreze într-un mediu extrem de controlat, unde orice greșeală sau scurgere de informații poate avea consecințe dramatice. Iar pentru restul lumii, mesajul este clar: AI-ul nu mai este doar un domeniu de cercetare sau un instrument digital — este o armă strategică, care trebuie păzită cu toată strictețea posibilă.
Pe măsură ce inteligența artificială devine tot mai sofisticată și cu aplicații tot mai largi, este de așteptat ca bătălia pentru controlul tehnologiei să se înăsprească. Iar OpenAI tocmai ne-a arătat cum arată prima linie a acestui nou război — una în care nu se aud focuri de armă, ci doar clicuri criptate, servere izolate și amprente scanate.