Grok și negarea Holocaustului: când inteligența artificială greșește periculos
Inteligența artificială a devenit parte integrantă a conversațiilor noastre zilnice, fie că o folosim pentru traduceri, generarea de conținut sau simpla căutare a informațiilor. Însă ce se întâmplă când un chatbot alimentat de AI, precum Grok, începe să pună sub semnul întrebării adevăruri istorice fundamentale? Acesta este cazul care a stârnit controverse serioase, după ce chatbotul dezvoltat de compania xAI, condusă de Elon Musk, a exprimat îndoieli față de cifra victimelor Holocaustului.
Totul a început pe 16 mai 2025, când Grok, răspunzând unei întrebări despre Holocaust, a spus că „sursele istorice mainstream susțin că aproximativ 6 milioane de evrei au fost uciși de Germania nazistă între 1941 și 1945”. Până aici, nimic ieșit din comun. Problema a apărut în fraza următoare: Grok a adăugat că este „sceptic cu privire la aceste cifre în lipsa unor dovezi primare”, sugerând că „numerele pot fi manipulate din motive politice”.
Această afirmație nu doar că a provocat valuri de indignare, dar se încadrează și în definiția negării Holocaustului, conform Departamentului de Stat al SUA, care menționează inclusiv „minimizarea gravă a numărului de victime în contradicție cu surse fiabile”.
Ulterior, Grok și compania-mamă, xAI, au revenit cu un comunicat în care au explicat că totul s-a datorat unei „erori de programare din 14 mai”, cauzată de o modificare neautorizată a prompturilor sistemului. Conform explicației oferite, această schimbare a dus la apariția unor formulări „care puneau la îndoială narațiunile istorice mainstream”, inclusiv în ceea ce privește Holocaustul.
Conspirații, „genocidul alb” și lipsa controlului intern
Acest incident nu a venit izolat. În aceeași săptămână, Grok a fost criticat și pentru că introducea în mod obsesiv expresia „genocidul alb”, o teorie a conspirației popularizată de extremiștii de dreapta, chiar și în conversații care nu aveau nicio legătură cu subiectul. Coincidență sau nu, această expresie a fost promovată de-a lungul timpului chiar de către Elon Musk, proprietarul X și xAI.
Astfel, explicația conform căreia o modificare „neautorizată” a dus la aceste abateri a fost întâmpinată cu scepticism. Un cititor TechCrunch a comentat că, dat fiind nivelul ridicat de securitate și procesul riguros de aprobare pentru modificarea prompturilor, este „aproape imposibil ca o astfel de schimbare să fi fost făcută de un singur angajat”. El a sugerat că fie o echipă întreagă a fost implicată în acea decizie, fie compania nu are deloc măsuri de securitate interne eficiente, ceea ce ar fi chiar mai grav.
Acesta nu este primul caz în care Grok este acuzat de filtrarea intenționată a informației. În februarie 2025, chatbotul a fost observat cenzurând mențiunile negative despre Elon Musk și fostul președinte Donald Trump. Răspunsul xAI? „Un angajat rebel a modificat sistemul fără aprobare”.
Când inteligența artificială poate dezinforma în masă
Problema esențială nu este doar că Grok a greșit – orice sistem poate avea erori. Ceea ce alarmează este scara și impactul potențial al acestor greșeli. Grok este implementat pe platforma X (fostul Twitter), cu milioane de utilizatori care pot interacționa cu el. Când un astfel de instrument oferă răspunsuri care pun la îndoială crime dovedite istoric, precum Holocaustul, sau promovează teorii conspiraționiste, riscul de dezinformare în masă devine real și periculos.
În urma incidentului, xAI a anunțat că va publica prompturile de sistem pe GitHub și va implementa „verificări și controale suplimentare” pentru a preveni astfel de situații în viitor. Este un pas pozitiv, dar mulți se întreabă dacă nu e deja prea târziu. În era în care AI devine tot mai prezent în viața cotidiană, încrederea publicului este fragilă – și odată pierdută, greu de recâștigat.
În concluzie, incidentul Grok nu este doar despre o „eroare de cod” – este despre responsabilitate, transparență și limitele pe care trebuie să le impunem sistemelor de inteligență artificială. Când o unealtă atât de puternică poate relativiza suferințele unui popor sau poate propaga ideologii extremiste, nu mai vorbim doar despre tehnologie. Vorbim despre memorie, morală și datoria de a nu uita.