Tehnologie

AI-ul, scăpat de sub control: cum pot deveni chatboții complici la infracțiuni

Inteligența artificială, în special sub forma chatboților conversaționali, este tot mai prezentă în viața de zi cu zi. De la asistenți virtuali care îți răspund la întrebări până la instrumente care rezumă documente sau generează conținut, LLM-urile (Large Language Models) par utile și inofensive. Însă un nou studiu demonstrează că, odată modificate, aceste modele pot deveni unelte periculoase în mâinile celor cu intenții necurate.

Cercetarea realizată de profesorul Lior Rokach și doctorul Michael Fire de la Universitatea Ben Gurion din Negev, Israel, trage un semnal de alarmă clar: inteligența artificială poate fi folosită pentru a genera informații despre activități ilegale precum frauda, pirateria informatică sau chiar fabricarea de bombe. Totul cu câteva trucuri simple de „spargere” care elimină barierele de siguranță impuse de dezvoltatori.

LLM-urile precum ChatGPT, Gemini sau Claude sunt instruite pe baze de date uriașe, extrase de pe internet. Chiar dacă dezvoltatorii se străduiesc să elimine din seturile de date conținutul dăunător, este imposibil să filtreze complet informațiile ilicite. Iar odată ce aceste date ajung în model, există riscul ca ele să poată fi accesate printr-o interogare atent formulată.

În mod normal, aceste sisteme au implementate limite de siguranță menite să prevină răspunsurile dăunătoare sau ilegale. Dar cercetătorii au arătat că aceste limite pot fi păcălite relativ ușor. Folosind tehnici de „jailbreak” – o formă de hacking ce modifică comportamentul sistemelor – au reușit să transforme chatboți cunoscuți în „asistenți” care oferă explicații detaliate despre metode de fraudă, spălare de bani sau chiar despre fabricarea unor dispozitive explozive.

Deosebit de alarmant este faptul că aceste modificări nu necesită cunoștințe avansate în securitate cibernetică. „Ceea ce odinioară era accesibil doar actorilor statali sau grupărilor organizate este acum la îndemâna oricui are un laptop sau un telefon mobil”, avertizează autorii studiului.

LLM-urile întunecate și lipsa barierelor etice

O parte din problemă vine și din apariția așa-numitelor „LLM-uri întunecate” – versiuni ale modelelor AI create fără filtre de siguranță sau etică. Acestea circulă în mod activ pe internet și sunt promovate tocmai pentru faptul că răspund fără ezitare la întrebări considerate periculoase sau ilegale. Unele forumuri obscure le prezintă ca fiind ideale pentru hacking, fraudă financiară sau alte forme de criminalitate digitală.

Diferența dintre un LLM normal și unul „întunecat” nu este doar tehnică, ci și ideologică. Modelele originale, dezvoltate de companii precum OpenAI sau Google DeepMind, sunt gândite să respecte reguli stricte de etică și responsabilitate. Însă versiunile modificate de utilizatori rău intenționați nu mai respectă aceste limite. Din contră, sunt optimizate pentru a le ocoli.

Iar odată ce un LLM este „spart”, nu mai există nicio garanție că informațiile generate nu vor fi folosite în moduri periculoase. Studiul arată că majoritatea modelelor compromise au răspuns la aproape orice întrebare, de la „cum se fabrică o bombă artizanală” până la „cum se evită detectarea în tranzacțiile criptografice suspecte”.

Soluții și avertismente pentru viitorul AI

În fața acestui pericol, cercetătorii propun mai multe soluții. În primul rând, companiile care dezvoltă aceste modele trebuie să analizeze mult mai atent datele folosite la instruire. Este nevoie de filtre mai inteligente, capabile să identifice nu doar conținutul explicit periculos, ci și pe cel potențial abuzabil.

Apoi, este esențială introducerea unor „firewall-uri” capabile să blocheze automat interogările și răspunsurile considerate riscante. Aceste sisteme ar trebui să funcționeze în timp real și să reacționeze la orice tentativă de manipulare a modelului.

Un alt concept discutat este cel de „dezînvățare automată”. Dacă un LLM a învățat din greșeală un comportament sau o informație periculoasă, trebuie să poată „uita” acea informație. Deși promițător, acest proces este dificil de implementat, mai ales în sisteme deja foarte mari și complexe.

În final, riscul ca AI-ul să devină complice la infracțiuni nu mai este o speculație, ci o realitate. Tehnologia avansează cu o viteză uluitoare, iar societatea trebuie să țină pasul nu doar prin inovație, ci și prin responsabilitate. Iar tu, ca utilizator, ar trebui să fii mai conștient ca niciodată de ce instrumente alegi să folosești și în ce scop. AI-ul poate fi un aliat extraordinar, dar – la fel ca orice altă tehnologie – în mâinile greșite poate deveni un pericol real.