Conținutul fals ia cu asalt internetul: Cum ajung site-urile moarte să otrăvească ChatGPT cu dezinformare
Inteligența artificială promite informație rapidă, clară și relevantă. Însă ceea ce pare a fi un progres tehnologic spectaculos ascunde o problemă tot mai gravă: otrăvirea răspunsurilor generate de modele ca ChatGPT cu date false provenite din site-uri compromise. Fenomenul, documentat recent de specialiști în securitate digitală, arată cum infrastructura web abandonată devine armă în mâinile spammerilor, afectând direct calitatea informației primite de utilizatori.
Chatbot-urile ca ChatGPT și Gemini sunt antrenate pe vaste cantități de conținut web. Iar dacă nu există suficiente filtre sau metode de verificare a surselor, aceste modele pot prelua cu aceeași încredere atât informații de pe site-uri reputabile, cât și de pe domenii abandonate, deturnate ulterior în scopuri comerciale sau frauduloase. Rezultatul? O inteligență artificială care pare convingătoare, dar care îți poate servi o minciună cu zâmbetul pe buze.
Totul începe cu site-uri legitime care ajung în moarte clinică: fie nu mai au trafic, fie sunt abandonate de către proprietari sau lovite de actualizări de algoritm precum AI Overviews de la Google. Când acestea expiră sau sunt scoase la vânzare, sunt cumpărate „la pachet” de rețele obscure specializate în spam și dezinformare. Noii „proprietari” profită de reputația veche a acestor domenii și încarcă paginile cu conținut dubios, redactat cu scopul de a promova produse, cazinouri online sau teorii conspiraționiste.
ChatGPT, antrenat pe date preluate din surse publice, nu poate detecta automat această deturnare. Dacă site-ul avea cândva autoritate – de exemplu, era administrat de o avocată sau afiliat unei organizații internaționale – chatbotul continuă să „creadă” că acel domeniu este de încredere. Așa se ajunge în situații precum cea relatată de James Brockbank, CEO-ul Digitaloft: un fost site de avocatură devenit promotor al jocurilor de noroc, sau un portal al unei coaliții ONU pentru tineret reciclat ca platformă pentru cazinouri online.
Problema devine și mai gravă când realizezi că majoritatea utilizatorilor nu mai verifică sursele. Chiar dacă în unele răspunsuri ChatGPT indică vag site-ul sursă, puțini sunt cei care dau click, verifică domeniul, caută autorul sau analizează coerența editorială. Așa că minciunile sau conținutul de slabă calitate se infiltrează rapid, protejate de forma convingătoare a răspunsului generat.
Chatbot-urile preiau, dar nu filtrează
Una dintre vulnerabilitățile modelelor AI este că ele preiau în mod pasiv informațiile din mediul online, fără să le poată interpreta editorial sau moral. ChatGPT nu își pune întrebări de tipul „este acest site deturnat?”, „cine a scris articolul?” sau „ce intenție are această pagină?”. Modelul e antrenat să ofere răspunsuri fluente, bine structurate, bazate pe surse accesibile public, dar nu are mecanisme native de validare contextuală sau detectare a manipulării.
Mai mult, modelele tind să favorizeze conținutul recent, ceea ce înseamnă că dacă un domeniu a fost deturnat de curând și este activ, ChatGPT îl poate include în răspunsuri chiar dacă informația publicată este irelevantă sau părtinitoare. Acest proces creează un cerc vicios: sursele legitime dispar, cele noi sunt adesea clone spam, iar AI-ul, în lipsa unei evaluări critice, devine doar un megafon care amplifică zgomotul digital.
Fenomenul afectează nu doar calitatea răspunsurilor, ci și încrederea în instrumentele AI. Dacă un utilizator primește constant informații inexacte sau contradictorii, încep să apară întrebări despre utilitatea și etica acestor tehnologii. Mai ales că unele răspunsuri pot avea consecințe reale – de la recomandări financiare și legale, până la decizii de sănătate sau de viață profesională.
Ce poți face ca utilizator și de ce e important să verifici
Chiar dacă nu poți controla sursele folosite de un chatbot, ai totuși câteva instrumente de protecție la dispoziție. În primul rând, fii sceptic față de orice informație care pare prea clară, prea perfectă sau prea bine formulată. Forma nu garantează conținutul.
Când un răspuns îți oferă o sursă, acceseaz-o și verifică dacă site-ul respectiv are conținut consistent, actualizat și un istoric editorial clar. Dacă vezi pagini haotice, reclame excesive, linkuri către cazinouri sau articole care nu au nicio legătură cu numele de domeniu, sunt șanse mari să fie vorba de un site reciclat pentru spam.
De asemenea, e util să folosești mai multe surse pentru aceeași întrebare. Dacă un răspuns primit de la ChatGPT îți pare ciudat sau prea bun ca să fie adevărat, caută confirmări din surse jurnalistice sau instituționale. Nu te baza niciodată pe un singur răspuns generat, mai ales în subiecte sensibile.
Într-o lume în care nu doar oamenii, ci și AI-ul pot fi păcăliți, spiritul critic rămâne cea mai importantă armă. Nu tot ce sună convingător e adevărat, iar nu tot ce e scris clar vine dintr-o minte limpede. Verifică, pune întrebări și nu te lăsa manipulat nici măcar de… un robot.