Tehnologie

Nici inventatorii AI nu înțeleg foarte bine cum evoluează inteligența artificială: Avertismentul unui expert în domeniu

Dario Amodei, CEO-ul companiei Anthropic, a publicat recent un eseu în care subliniază că, în ciuda progreselor semnificative din domeniul inteligenței artificiale, cercetătorii nu înțeleg pe deplin cum funcționează modelele de AI de vârf.

Amodei a stabilit un obiectiv ambițios: până în 2027, Anthropic va trebui să poată detecta majoritatea problemelor legate de modelele de AI într-un mod fiabil, scrie publicația TechCrunch.

Obiectivul face parte dintr-o abordare ceva mai complexă de interpretabilitate a modelelor AI, domeniu în care Anthropic joacă un rol important.

Amodei recunoaște că aceasta este o provocare mare, însă consideră că este esențial ca, pe măsură ce aceste tehnologii devin tot mai autonome și influente asupra economiei, tehnologiei și securității naționale, să înțelegem mai bine cum funcționează.

„Aceste sisteme vor fi esențiale pentru viitorul umanității, iar ignorarea modului în care operează este inacceptabilă”, a spus el în eseul său.

Progrese timide, dar importante în interpretabilitatea AI

Anthropic a reușit deja câteva progrese importante în acest domeniu, descoperind moduri de a urmări traseele de gândire ale modelelor AI, proces numit „circuit”.

De exemplu, compania a identificat un astfel de circuit care ajută modelele AI să înțeleagă ce orașe din Statele Unite sunt în ce state.

Deși aceasta vorbim despre o realizare semnificativă, Anthropic estimează că există milioane de astfel de circuite, iar descoperirea acestora este încă la început.

Amodei spune că AI-ul este adesea „crescut” mai mult decât „construit”, adică îmbunătățirea acestuia se face pe baza unor metode care nu sunt încă complet înțelese de cercetători.

Cu toate acestea, provocările nu sunt de neglijat. În eseurile lui anterioare, el a menționat că nu înțelegerea completă a modului în care funcționează modelele AI ar putea fi periculoasă, în special în cazul unui potențial sistem de inteligență artificială generală (AGI), care ar putea avea un impact imens asupra societății.

Mai mult, el a menționat că ar putea fi periculos să ajungem la un astfel de sistem fără a înțelege cum funcționează modelele care stau la baza acestuia.

În viitor, obiectivul Anthropic este de a efectua „scanări cerebrale” ale modelelor AI de vârf, pentru a identifica posibilele probleme, inclusiv tendința lor de a minti sau de a căuta puterea.

Acest lucru ar putea dura între cinci și zece ani, dar Amodei consideră că acest tip de verificări vor fi esențiale pentru dezvoltarea responsabilă a tehnologiilor AI.

Colaborare inter-industrială: este nevoie de reglementări pentru siguranța AI

Amodei a lansat un apel inclusiv către alte companii importante, cum ar fi OpenAI și Google DeepMind, pentru a intensifica cercetările în domeniul interpretabilității, precum și pentru ca guvernele să impună reglementări „ușoare” care să încurajeze aceste cercetări.

În eseurile sale, Amodei sugerează ca guvernul SUA să pună controale de export asupra cipurilor către China, pentru a limita riscurile unei curse globale necontrolate a inteligenței artificiale.

În ceea ce privește siguranța AI, Anthropic a fost mult mai proactivă decât alte companii, fiind un susținător al propunerii de lege AI din California, care ar fi impus standarde de raportare a siguranței pentru modelele de AI de frontieră.