Tehnologie

OpenAI avertizează: Noul model AI o1 crește riscul de utilizare în scopuri periculoase

OpenAI a recunoscut recent că noul său model de inteligență artificială, numit o1, prezintă un risc semnificativ de a fi utilizat pentru crearea armelor biologice, radiologice sau nucleare. Acesta este cel mai înalt grad de alertă pe care compania americană l-a acordat vreodată unui model de-al său. Experții au atras atenția asupra faptului că tehnologia avansată oferită de o1 poate facilita accesul la informații critice pentru persoanele rău intenționate, amplificând pericolul la nivel global.

Fișa tehnică a modelului o1, care detaliază modul său de funcționare, arată că acesta poate asista specialiștii din domeniul CBRN (chimic, biologic, radiologic și nuclear) prin oferirea de detalii importante, precum informații despre furnizori specifici și planuri de distribuție. Acestea ar putea fi utilizate în mod abuziv pentru a crea amenințări la adresa securității globale. Modelul a fost testat de experți din diverse domenii științifice, care au concluzionat că, deși nu introduce riscuri mai mari decât cele deja existente cu resursele curente, el poate crește semnificativ capacitatea de a dezvolta astfel de arme.

Apeluri pentru reglementarea utilizării AI

Odată cu lansarea modelului o1, experții au subliniat necesitatea unor reglementări stricte pentru a preveni utilizarea abuzivă a inteligenței artificiale în scopuri rău intenționate. Având în vedere avansul rapid al tehnologiei AI, riscul de utilizare în scopuri periculoase crește exponențial. În California, proiectul de lege SB 1047 propune măsuri care să oblige dezvoltatorii de modele AI avansate să implementeze proceduri de siguranță pentru a preveni utilizarea inteligenței artificiale în crearea armelor biologice.

Directorul tehnologic al OpenAI a declarat pentru Financial Times că, din cauza capacităților avansate ale o1, compania este extrem de precaută în modul în care introduce acest model pe piață. Deși modelul poate rezolva probleme mult mai complexe în domenii precum logică, IT sau matematică, OpenAI este conștientă de potențialele riscuri asociate cu utilizarea sa. Compania a anunțat că modelul va fi disponibil la scară largă pentru abonații ChatGPT începând de săptămâna viitoare, dar cu o atenție sporită asupra măsurilor de siguranță.

O1: Un pas înainte în AI, dar cu riscuri majore

OpenAI a prezentat modelul o1 ca fiind un progres semnificativ în domeniul inteligenței artificiale, conceput pentru a aborda probleme complexe și pentru a furniza soluții în diverse domenii. Totuși, creșterea capacității modelelor AI vine la pachet cu un set de provocări serioase. Capacitatea de a oferi informații detaliate despre furnizorii de materiale sensibile sau de a elabora planuri pentru distribuirea substanțelor periculoase poate reprezenta un pericol real în mâinile persoanelor rău intenționate.

OpenAI a subliniat faptul că modelul o1 a fost supus unei testări riguroase de către experți în securitate și că va implementa măsuri de protecție suplimentare pentru a minimiza riscurile. Cu toate acestea, lansarea acestui model ridică întrebări critice cu privire la modul în care tehnologia AI avansată poate fi controlată și reglementată pentru a preveni utilizarea sa în scopuri dăunătoare.

Îngrijorările legate de utilizarea inteligenței artificiale în crearea armelor biologice, radiologice sau nucleare subliniază necesitatea unei colaborări internaționale în stabilirea de norme și reglementări clare. În lipsa acestora, riscul ca astfel de tehnologii să fie utilizate în scopuri malefice crește, ceea ce ar putea avea consecințe devastatoare pentru securitatea globala.