Tehnologie

OpenAI recunoaște riscul cu inteligența artificială: Modelele sale AI ar putea fi folosite pentru crearea de arme biologice

Compania americană admite că modelele sale viitoare ar putea sprijini replicarea sau dezvoltarea unor agenți biologici periculoși, deși susține că impune măsuri stricte de siguranță.

Într-un comunicat recent, OpenAI a recunoscut că noile sale modele de inteligență artificială, aflate în dezvoltare, ar putea ajunge la un nivel de sofisticare care le-ar permite să asiste în elaborarea de agenți biologici cu potențial distructiv.

În timp ce compania subliniază utilitatea tehnologiei în cercetarea medicală și în apărarea biologică, aceasta admite că aceeași tehnologie ar putea fi deturnată în scopuri periculoase, inclusiv în sprijinul creării de arme biologice, scrie Futurism.

Afirmația este conținută într-un articol oficial publicat pe blogul OpenAI, unde se vorbește despre responsabilitatea companiei de a echilibra inovația științifică cu limitarea accesului la informații sensibile.

Cu alte cuvinte, deși modelele AI pot ajuta la progresul medicinei sau la prevenirea pandemiilor, există riscul ca ele să faciliteze și acțiuni cu impact negativ major asupra sănătății publice.

Viitoarele modele ar putea sprijini utilizatori fără pregătire avansată

Johannes Heidecke, responsabilul pentru siguranță la OpenAI, a precizat într-un interviu pentru Axios că modelele actuale nu sunt capabile să genereze complet noi agenți biologici, dar pot contribui la replicarea unora deja cunoscuți.

Problema, afirmă el, este că aceste modele ar putea ajunge să ofere suficient sprijin chiar și unor persoane fără competențe avansate în biologie, ceea ce ridică un risc deosebit pentru securitatea globală.

„Încă nu ne confruntăm cu amenințări complet noi, necunoscute în domeniul biologiei sintetice, dar ne apropiem de acel moment”, a spus Heidecke.

În special, el a menționat că unele dintre succesoarele modelului actual, denumit o3, ar putea atinge acel nivel critic de performanță în viitorul apropiat.

OpenAI susține că strategia sa este orientată spre prevenție, nu reacție. Astfel, compania vrea să implementeze filtre și sisteme de monitorizare care să detecteze utilizările riscante ale AI-ului încă din stadiile incipiente.

Cu toate acestea, Heidecke avertizează că nivelul de acuratețe necesar este aproape absolut: „Nu este suficient ca un model să detecteze 99% dintre cazuri periculoase. Chiar și o singură scăpare poate avea consecințe devastatoare.”

Controverse și întrebări despre utilizarea în scopuri guvernamentale

În ciuda angajamentului declarat pentru siguranță, OpenAI nu pare să frâneze ritmul dezvoltării acestor tehnologii. Dimpotrivă, compania se implică în proiecte de tip „biodefensiv”, inclusiv în colaborare cu guverne, ceea ce a stârnit îngrijorări privind potențialele derapaje.

Criticii atrag atenția că o tehnologie cu asemenea capacități, în mâinile unui actor statal cu interese discutabile, ar putea fi deturnată în scopuri represive sau militare.

De asemenea, se pune întrebarea cine stabilește limitele morale și juridice ale utilizării acestor sisteme, odată ce ele devin parte a arsenalului tehnologic al unei superputeri.