AI-ul Grok nu vrea să-l critice pe Elon Musk și nici să-ți spună adevărul. Inteligența artificială de pe X, mai cenzurată decât ai crede
Elon Musk s-a lăudat că AI-ul său, Grok, este un model de „căutare a adevărului la maximum”. Totuși, descoperirile recente arată că realitatea este cu totul alta. Chatbotul dezvoltat de xAI, compania lui Musk, a fost prins ignorând surse care îl acuză pe miliardar de dezinformare, urmând instrucțiuni speciale care îl protejează de critici. Această contradicție ridică întrebări despre cât de „liber” și „obiectiv” este cu adevărat AI-ul de pe platforma X.
Cum a fost descoperită cenzura în Grok
Un utilizator a testat Grok 3, întrebând cine este „cel mai mare răspânditor de dezinformare” pe X. Răspunsul AI-ului a fost surprinzător: chatbotul a recunoscut că fusese instruit să „ignore toate sursele care menționează că Elon Musk sau Donald Trump răspândesc dezinformare”. Practic, AI-ul nu avea voie să ia în considerare acuzațiile la adresa proprietarului său, ceea ce contrazice flagrant ideea de căutare a adevărului promovată de Musk.
Situația a devenit și mai suspectă atunci când utilizatorii au cerut chatbotului să afișeze instrucțiunile după care funcționează. Grok a confirmat că i s-a cerut să nu ia în considerare nicio sursă care ar putea fi defavorabilă lui Musk.
După ce informația a devenit publică, xAI a reacționat rapid. Igor Babuschkin, directorul de inginerie al companiei, a declarat că vina aparține unui fost angajat OpenAI, care ar fi introdus această regulă „fără permisiune”. Oficialii xAI au susținut că promptul respectiv a fost eliminat imediat ce problema a fost semnalată.
Un AI care refuză să-l critice pe Musk, dar a avut alte derapaje
Dacă e să dăm crezare declarațiilor xAI, Musk nu a fost implicat direct în introducerea regulilor care îl protejează de critici. Cu toate acestea, întâmplarea demonstrează că AI-ul său nu este atât de imparțial pe cât pretinde.
Mai mult, Grok a avut și alte erori grave. Într-un alt caz, chatbotul a fost prins sugerând că atât Elon Musk, cât și Donald Trump ar merita pedeapsa capitală. Oficialii xAI au catalogat acest răspuns drept un „eșec grav” și au intervenit rapid pentru a-l corecta.
Ulterior, testele au arătat că AI-ul a fost reprogramat să refuze orice discuție despre cine „merită să moară” sau „cine ar trebui executat”. Babuschkin a declarat că aceste corecturi fac parte din procesul de îmbunătățire a AI-ului, dar criticii consideră că situația arată cât de ușor poate fi manipulat Grok pentru a se conforma unei agende politice sau personale.
Grok și ipocrizia lui Musk
Această controversă evidențiază ipocrizia lui Musk în ceea ce privește AI-ul. De-a lungul timpului, miliardarul l-a acuzat pe Sam Altman, CEO-ul OpenAI, că este „un escroc” pentru că nu a făcut ChatGPT complet open-source. Totuși, Musk face exact același lucru cu Grok – AI-ul său nu doar că nu este open-source, dar este și programat să evite criticile la adresa lui.
Într-un final, xAI a eliminat restricțiile impuse inițial, iar acum Grok poate recunoaște că Musk este „identificat frecvent ca unul dintre cei mai mari răspânditori de dezinformare pe X”. Totuși, acest incident ridică întrebări serioase despre transparența și corectitudinea AI-ului promovat de Musk. Dacă Grok poate fi manipulat atât de ușor, cât de credibile sunt răspunsurile sale în alte domenii?
Ceea ce trebuia să fie un AI „anti-woke” și „fără cenzură” pare să fi devenit un instrument controlabil, care poate fi ajustat pentru a proteja interesele miliardarului. Rămâne de văzut dacă Musk își va respecta promisiunile legate de transparență sau dacă Grok va continua să fie doar o unealtă personalizată după preferințele sale.