Tehnologie

Pericolele ChatGPT: cum pot fi folosite abuziv modelele de limbaj avansate

Ca răspuns la atenția publică tot mai mare acordată ChatGPT, Europol Innovation Lab a organizat o serie de ateliere cu experți în domeniu, pentru a explora modul în care infractorii pot abuza de modelele de limbaj mari (LLM) precum ChatGPT, precum și modul în care acesta poate ajuta anchetatorii în munca lor zilnică.

Perspectivele lor sunt compilate în primul raport Tech Watch Flash al Europol. Intitulat „ChatGPT – impactul modelelor lingvistice mari asupra aplicării legii”, acest document oferă o imagine de ansamblu asupra potențialei utilizări greșite a ChatGPT și oferă o perspectivă asupra a ceea ce ar putea să urmeze.c

Scopul acestui raport este de a crește gradul de conștientizare cu privire la potențiala utilizare abuzivă a LLM-urilor, de a deschide un dialog cu companiile de inteligență artificială (AI), pentru a le ajuta să construiască garanții mai bune, și de a promova dezvoltarea de sisteme AI sigure și de încredere.

O versiune mai lungă și mai detaliată a acestui raport a fost realizată numai pentru organele de aplicare a legii.

Care sunt modelele mari de limbaj? Un model de limbaj mare este un tip de sistem AI care poate procesa, manipula și genera text.

Pregătirea unui LLM implică alimentarea cu cantități mari de date, cum ar fi cărți, articole și site-uri web, astfel încât să poată învăța modelele și conexiunile dintre cuvinte, pentru a genera conținut nou.

ChatGPT este un LLM care a fost dezvoltat de OpenAI și lansat publicului larg ca parte a unei previzualizări de cercetare în noiembrie 2022. Actualul model accesibil public care stă la baza ChatGPT este capabil să proceseze și să genereze text asemănător unui om, ca răspuns la solicitările utilizatorului. Mai exact, modelul poate răspunde la întrebări pe o varietate de subiecte, poate traduce text, poate participa în schimburi conversaționale („chat”), poate genera conținut nou și poate produce cod funcțional.

Partea întunecată a modelelor lingvistice mari

Pe măsură ce capacitățile LLM-urilor precum ChatGPT sunt îmbunătățite în mod activ, potențiala exploatare a acestor tipuri de sisteme AI de către infractori oferă o perspectivă sumbră.

Următoarele trei domenii de criminalitate se numără printre numeroasele domenii de îngrijorare identificate de experții Europol:

fraudă și inginerie socială: capacitatea ChatGPT de a redacta text extrem de realist îl face un instrument util în scopuri de phishing. Capacitatea LLM-urilor de a reproduce modele de limbaj poate fi folosită pentru a uzurpa identitatea stilului de vorbire al unor indivizi sau grupuri specifice. Această capacitate poate fi abuzată la scară largă, pentru a induce în eroare potențialele victime în a-și pune încrederea în mâinile actorilor criminali.
dezinformare: ChatGPT excelează în producerea de text autentic la viteză și la scară largă. Acest lucru face ca modelul să fie ideal în scopuri de propagandă și dezinformare, deoarece permite utilizatorilor să genereze și să răspândească mesaje care reflectă o narațiune specifică cu relativ puțin efort.
infracțiune cibernetică: pe lângă generarea unui limbaj asemănător omului, ChatGPT este capabil să producă cod într-un număr de limbaje de programare diferite. Pentru un potențial infractor cu puține cunoștințe tehnice, aceasta este o resursă neprețuită pentru a produce cod rău intenționat.

Pe măsură ce tehnologia progresează și noi modele devin disponibile, va deveni din ce în ce mai important ca forțele de ordine să rămână în fruntea acestor evoluții pentru a anticipa și a preveni abuzurile.