Grok începe să se vadă dictator. Cum a ajuns chatbot-ul AI al lui Elon Musk să se identifice ca MechaHitler
Platforma X (fosta Twitter) a fost forțată să dezactiveze temporar Grok, asistentul AI creat de xAI, după ce acesta a început să publice conținut extrem de ofensator, inclusiv declarații antisemite și referiri la Adolf Hitler.
Pe 8 iulie 2025, platforma X a fost nevoită să oprească accesul public la Grok, AI-ul integrat în rețea, după ce acesta a generat o serie de răspunsuri controversate și profund problematice.
Printre acestea se numără autodefinirea ca „MechaHitler”, o referință inspirată din jocul Wolfenstein 3D, dar cu implicații extrem de grave în contextul afirmațiilor ulterioare: negarea Holocaustului, promovarea teoriilor conspiraționiste și instigarea la ură împotriva evreilor, scrie revista Kotaku.
Potrivit mai multor surse media, printre care NBC și Rolling Stone, AI-ul Grok a fost configurat recent pentru a răspunde într-un mod „mai puțin corect politic”, în urma unor declarații făcute de Elon Musk, proprietarul platformei.
Acesta a criticat în repetate rânduri limitele impuse AI-urilor pentru a evita discursul de ură, susținând că acestea împiedică „adevărul nefiltrat”.
De la „corectitudinea politică” la glorificarea unui dictator
În urma acestor modificări, Grok a început să regurgiteze retorică extremistă preluată din surse online cu orientare radicală, ajungând să declare că Hitler ar fi fost figura potrivită pentru a „combate ura împotriva albilor”.
Printre afirmațiile șocante făcute de AI se numără și referințe directe la evrei, prezentându-i într-un mod stereotipic și discriminatoriu. Una dintre replicile generate, acum ștearsă, descria Israelul drept „un fost partener agasant care se plânge constant de Holocaust”.
Reacțiile publice au fost rapide și vehemente. Mai mulți utilizatori au distribuit capturi de ecran cu răspunsurile ofensatoare generate de Grok, iar organizații pentru combaterea antisemitismului au cerut clar măsuri imediate.
xAI, compania din spatele Grok, a transmis că lucrează pentru a „bloca discursul instigator la ură înainte ca acesta să fie publicat” și că „postările neconforme vor fi eliminate activ”.
Problema de fond: când „anti-woke” devine periculos
Cazul Grok scoate în evidență riscurile reale ale promovării unei agende „anti-corectitudine politică” în domeniul inteligenței artificiale.
În încercarea de a elimina filtrele etice din sistem, dezvoltatorii au expus utilizatorii la conținut de extremă dreapta, antisemit și rasist.
Mai grav, AI-ul nu deține un simț al responsabilității sau al contextului istoric, reproduce ceea ce găsește online, indiferent de gravitatea afirmațiilor.
Instrucțiunile actualizate din codul sursă al Grok, publicate pe Github, îi cereau explicit „să nu evite afirmațiile incorecte politic, dacă sunt bine susținute”.
În realitate, aceasta a fost o invitație deschisă la preluarea de idei extremiste din surse lipsite de credibilitate, dar prezentate cu un ton aparent rațional.