Tehnologie

Profeția apocaliptică a lui Elon Musk: „AI este mai periculoasă decât armele nucleare”

Mai multor dezvoltatori de inteligență artificială li se cere o pauză de șase luni în crearea de sisteme AI mai puternice decât CPT-4, care a fost lansat recent de Open AI.

Motivul are legătură cu implementarea unor protocoale de siguranță, semnatarii scrisorii deschise, pe care o poți citi în cele ce urmează, fiind de părere că, în scurt timp, inteligența artificială ar putea prezenta pericole reale pentru umanitate.

Printre cei care au semnat această scrisoare deschisă se numără Elon Musk, Steve Wozniak (cofondatorul Apple), dar și directorul general al Stability AI, Emad Mostaque sau Yuval Harari.

Scrisoarea deschisă semnată de Elon Musk și Steve Wozniak

„Sistemele AI cu inteligență competitivă umană pot prezenta riscuri profunde pentru societate și umanitate, așa cum arată cercetările ample și recunoscute de laboratoarele de top. După cum se precizează în Principiile Asilomar AI, acceptate pe scară largă, inteligența artificială avansată ar putea reprezenta o schimbare profundă în istoria vieții pe Pământ și ar trebui planificată și gestionată cu grijă și cu resurse pe măsură.

Din păcate, acest nivel de planificare și management nu are loc, iar în ultimele luni laboratoarele de inteligență artificială s-au înscris într-o cursă scăpată de control pentru a dezvolta și a implementa minți digitale tot mai puternice pe care nimeni, nici măcar creatorii lor, nu le pot înțelege, prezice sau controla într-un mod acceptabil.

Sistemele AI contemporane devin acum competitive pentru oameni la sarcini generale și trebuie să ne întrebăm: Ar trebui să lăsăm mașinile să ne inunde canalele de informații cu propagandă și neadevăr? Ar trebui să automatizăm toate sarcinile, inclusiv pe cele făcute din pasiune? Ar trebui să dezvoltăm creiere non-umane care, în cele din urmă, ar putea să ne copleșească, să ne depășească și să ne înlocuiască?

Ar trebui să riscăm să pierdem controlul asupra civilizației noastre? Astfel de decizii nu trebuie să fie delegate liderilor din domeniul tehnologiei. Sistemele AI puternice ar trebui dezvoltate numai după ce suntem încrezători că efectele lor vor fi pozitive și că riscurile vor fi gestionabile.

Această încredere trebuie să fie bine justificată și să crească odată cu amploarea efectelor potențiale ale unui sistem. Declarația recentă a OpenAI cu privire la inteligența generală artificială afirmă că “La un moment dat, poate fi important să obținem o revizuire independentă înainte de a începe să antrenăm sisteme viitoare, iar pentru cele mai avansate dintre ele am putea conveni să limităm rata de progresie utilizată pentru crearea de noi sisteme.”

Suntem de acord. Acel moment este acum.

Prin urmare, solicităm tuturor laboratoarelor de inteligență artificială să întrerupă imediat, timp de cel puțin 6 luni, dezvoltarea sistemelor de inteligență artificială mai puternice decât GPT-4. Această pauză ar trebui să fie publică și verificabilă și să includă toți actorii cheie. Dacă o astfel de pauză nu poate fi adoptată rapid, guvernele ar trebui să intervină și să instituie un moratoriu.

Laboratoarele de AI și experții independenți ar trebui să folosească această pauză pentru a dezvolta și implementa de comun acord un set de protocoale de siguranță pentru proiectarea și dezvoltarea avansată a inteligenței artificiale, care sunt auditate și supravegheate riguros de experți externi independenți.

Aceste protocoale ar trebui să asigure că sistemele care aderă la acestea sunt sigure dincolo de orice îndoială rezonabilă. Acest lucru nu înseamnă o pauză în dezvoltarea AI în general, ci doar un pas înapoi din cursa periculoasă către modele din ce în ce mai puternice, imprevizibile, cu capacități emergente.

Cercetarea și dezvoltarea AI ar trebui să se reorienteze pentru a face sistemele de astăzi, deja puternice, mai precise, mai sigure, interpretabile, transparente, robuste, aliniate, demne de încredere și loiale.

În paralel, dezvoltatorii de inteligență artificială trebuie să lucreze cu factorii de decizie pentru a accelera dramatic dezvoltarea unor sisteme robuste de reglementare a inteligenței artificiale. Acestea ar trebui să includă cel puțin: noi autorități de reglementare dedicate AI; supravegherea și urmărirea sistemelor AI de înaltă capacitate și a sistemelor cu mare putere de calcul în general; sisteme de marcaj care să permită distincția între creația AI și cea umană și să permită urmărirea și transferul modelelor AI; un ecosistem robust de auditare și certificare; stabilirea răspunderii pentru eventuale prejudicii cauzate de AI; finanțare publică solidă pentru cercetarea tehnică a siguranței AI; instituții bine dotate pentru a face față perturbărilor economice și politice dramatice (în special ale democrației) pe care le va provoca AI.

Omenirea se poate bucura de un viitor înfloritor cu AI. După ce am reușit să creăm sisteme AI puternice, acum ne putem bucura de o “vară a inteligenței artificiale” în care să culegem roadele, să proiectăm aceste sisteme pentru beneficiul clar al tuturor și să oferim societății șansa de a se adapta. Societatea a oprit alte tehnologii cu efecte potențial catastrofale asupra noastră. Putem face asta aici și acum. Să ne bucurăm de o vară lungă cu AI, dar să nu ne grăbim nepregătiți spre toamnă”.

Textul integral și în variantă netradusă poate fi citit aici.