Tehnologie

Din maimuțe ne „tragem”, la maimuțe ajungem: De ce secretul inteligenței artificiale este în creierul primatei

Cum ar putea creierul unei maimuțe să dețină secretul siguranței inteligenței artificiale? E un pic mai complicat.

Dacă vrem să înțelegem creierul uman și ceea ce lipsește din sistemele actuale de inteligență artificială, cadrul acestor descoperiri oferă o abordare minunat de instructivă și simplificatoare.

Descoperire importantă despre AI

Max Bennett este cofondatorul și CEO-ul Alby, un startup care ajută companiile să integreze modele lingvistice mari în site-urile lor web, pentru a crea experiențe ghidate de cumpărături și căutare. Bennett deține mai multe brevete pentru tehnologiile inteligenței artificiale și a publicat numeroase lucrări științifice în reviste evaluate de colegii săi pe subiecte de neuroștiință evolutivă și neocortex. El a fost inclus pe lista Forbes 30 Under 30, precum și pe Built In NYC’s 30 Tech Leaders Under 30.

Încercăm să înțelegem creierul de secole și totuși încă nu avem răspunsuri satisfăcătoare. Problema este că creierul este cu adevărat complicat. Creierul conține peste 86 de miliarde de neuroni și peste 100 de trilioane de conexiuni, toate conectate într-un haos încurcat. La un milimetru cub de creier, care este aproximativ lățimea unei singure litere pe un ban, există peste un miliard de conexiuni. Chiar dacă am cartografi toate cele 100 de trilioane de conexiuni, tot nu am ști cum funcționează creierul.

Dar există o abordare alternativă, una care caută răspunsuri nu în creierul uman, ci în fosilele, genele și creierele multor alte animale care populează planeta noastră. În ultimii ani, oamenii de știință au făcut progrese incredibile reconstruind creierul și facultățile intelectuale ale strămoșilor noștri.

Vezi și: Un bărbat cu implant cerebral a provocat-o pe maimuța lui Musk la un joc de ping-pong cu puterea minții

Una dintre problemele cheie în domeniul alinierii AI este asigurarea faptului că sistemele AI înțeleg solicitările pe care le facem. Aceasta a mai fost numită „problema agrafelor”, după alegoria lui Nick Bostrom de a cere unui sistem AI să ruleze o fabrică de agrafe cât mai eficient posibil, moment în care sistemul său AI imaginat continuă să transforme tot Pământul în agrafe. Acest experiment de gândire dezvăluie că AI poate fi periculoasă chiar și fără a fi intenționat nefastă: sistemul AI a făcut exact ceea ce i-am spus noi să facă, dar nu a reușit să deducă adevărata intenție a cererii noastre și preferințele noastre reale. Problema agrafelor este una dintre cele mai mari provocări restante în domeniul siguranței AI.

De ce secretul siguranței inteligenței artificiale este în creierul unei maimuțe

Când oamenii vorbesc unii cu alții, deducem automat intenția cuvintelor celuilalt. Aceasta este descoperirea „mentalizării”. Ea iese din părți ale neocortexului care au apărut cu primatele timpurii. Aceste zone de primate le oferă maimuțelor capacitatea de a simula nu numai lumea exterioară, ci și propria lor simulare interioară, permițându-le să se gândească la propria gândire și la gândirea altora.

Primatele timpurii au fost prinse într-o cursă a înarmărilor; succesul lor reproductiv a fost definit de capacitatea lor de a construi alianțe, de a escalada ierarhiile politice și de a se apropia de cei cu statut înalt. Vedem acest lucru în grupurile sociale ale primatelor moderne, cum ar fi cimpanzeii și maimuțele. Cel mai puternic instrument de supraviețuire în lumea politică a vieții primatelor a fost evoluția mentalizării, care le permite primatelor să prezică consecințele alegerilor lor sociale, să se „imagineze pe ele însele în pielea altora”, să deducă cum s-ar putea simți și ce ar putea face.

Vezi și: Descoperirea uimitoare despre urangutani: fac acest lucru exact ca oamenii

Noile zone ale neocortexului la primate, conform ultimelor studii, conțin planul algoritmic pentru cum să construiești sisteme AI care să facă același lucru. Într-un fel sau altul, pentru a crea sisteme AI sigure, va trebui să înzestrăm aceste sisteme cu o înțelegere fiabilă a modului în care funcționează mintea umană, fără de care sistemele noastre AI vor risca întotdeauna să armeze accidental o solicitare inofensivă, cum ar fi optimizarea unei fabrici de agrafe sau un cataclism care termină lumea.