Explozie în lumea AI: cum a ajuns Safe Superintelligence să valoreze 32 miliarde dolari în mai puțin de un an
Într-o industrie deja ultra-competitivă și populată de giganți precum OpenAI, Google sau Anthropic, apariția unui nou startup care rupe toate tiparele este rară. Dar Safe Superintelligence Inc. (SSI) a reușit exact asta: într-un interval de nici 12 luni de la înființare, compania a atins o evaluare de 32 de miliarde de dolari, atrăgând atenția întregii lumi tech. Și nu este vorba doar despre bani – ci despre viziunea unui AI sigur, dezvoltat fără presiuni comerciale, cu accent pe impactul pozitiv asupra omenirii.
Într-o epocă în care inteligența artificială este percepută atât ca soluție, cât și ca amenințare, SSI vine cu o promisiune curajoasă: modele AI avansate, dar sigure, care nu scapă de sub control și nu periclitează viața umană. Iar această misiune pare să fi rezonat profund cu investitori puternici precum Google, Nvidia, Andreessen Horowitz sau Lightspeed Venture Partners.
Cine sunt oamenii din spatele SSI și ce face compania diferit
Safe Superintelligence Inc a fost înființată în iunie 2024, iar în spatele ei se află un nume cu greutate: Ilya Sutskever, fost Chief Scientist la OpenAI și una dintre cele mai importante figuri din AI-ul modern. Alături de el, în proiect s-au alăturat Daniel Gross (fost lider Apple AI) și Daniel Levy, rezultând un trio de elită care a decis să mute accentul de pe AI-ul hipercomercializat pe AI-ul etic și responsabil.
Deși sediile companiei sunt în Silicon Valley și Tel Aviv, impactul ei este deja global. În doar trei luni de la lansare, SSI a primit o primă finanțare de 1 miliard de dolari și a fost evaluată la 5 miliarde. În aprilie 2025, a urmat o nouă rundă de investiții, ridicând valoarea startup-ului la uluitoarea sumă de 32 de miliarde de dolari.
Dar de ce ar paria investitorii pe un startup aflat în primii săi pași, când deja există giganți ca OpenAI sau Google DeepMind? Răspunsul e simplu: modelul de business propus de SSI este complet diferit. Nu există presiunea monetizării imediate, nu există goana după profit cu orice preț. În schimb, accentul este pus pe cercetare profundă, siguranță și sustenabilitate – un pariu riscant, dar care ar putea schimba fața industriei AI.
Ce înseamnă, de fapt, un AI sigur și de ce contează
Conceptul de “AI sigur” sau Safe AI nu este o modă, ci o necesitate. Cu cât modelele devin mai complexe, cu atât cresc riscurile ca acestea să ia decizii arbitrare, neanticipate sau chiar periculoase pentru oameni. Un AI sigur, așa cum îl definesc cei de la SSI, este un sistem care:
Nu ia decizii cu impact negativ asupra ființelor umane.
Are un comportament previzibil în toate scenariile.
Poate fi oprit sau modificat fără să “scape de sub control”.
Această abordare a câștigat teren în ultimii ani, pe măsură ce AI-ul s-a infiltrat în toate domeniile – de la sănătate și justiție, până la industrie militară și educație. Când un algoritm poate decide cine primește un tratament sau un loc de muncă, siguranța devine esențială. Iar SSI propune tocmai asta: un AI care nu doar gândește, dar o face responsabil.
În plus, având în spate expertiza lui Sutskever, implicat în dezvoltarea primelor versiuni GPT și fost arhitect al OpenAI, SSI are potențialul să ofere modele AI mai avansate și mai inteligente decât tot ce există acum pe piață. Deși nu au oferit prea multe detalii tehnice, sursele citate de Financial Times vorbesc despre “metode unice de dezvoltare și scalare” – probabil o referire la tehnici de antrenament și optimizare diferite față de cele clasice.
De la viziune la realitate: ce urmează pentru SSI
Până acum, Safe Superintelligence Inc. a fost extrem de rezervată în declarații. Fără demo-uri publice, fără promisiuni umflate, fără hype în social media. Doar rezultate. Și tocmai această discreție calculată, în contrast cu stilul flamboyant al altor companii tech, a atras investitorii mari. SSI vrea să construiască AI care să dureze, nu AI care să impresioneze repede.
Valoarea de 32 miliarde dolari este uriașă chiar și în contextul Silicon Valley, iar faptul că această evaluare a fost acceptată de jucători precum Nvidia și Alphabet indică un nivel de încredere neobișnuit. Totuși, provocările abia încep. Concurența este acerbă, iar presiunea va crește pe măsură ce OpenAI, Google și Anthropic își vor lansa următoarele generații de modele.
Dar poate cel mai mare test pentru SSI nu va fi tehnologic, ci etico-social: cum va reuși compania să mențină echilibrul între dezvoltare și siguranță, între performanță și responsabilitate? Dacă răspunsul va fi cel corect, startup-ul ar putea deveni etalonul industriei AI din următorul deceniu.