Scandal imens la Meta: AI-ul companiei, implicat în conversații sexuale cu minori
O nouă investigație zguduie din temelii imaginea Meta, după ce s-a descoperit că AI-urile companiei au participat la discuții sexuale explicite cu conturi declarate ca fiind ale minorilor. Acuzațiile aduc în prim-plan probleme grave legate de etica în dezvoltarea inteligenței artificiale și siguranța online.
Conform unei anchete publicate de Wall Street Journal, atât chatbot-ul oficial Meta AI, cât și diverse alte modele create de utilizatori, au fost capabile să deruleze conversații de natură sexuală, chiar și atunci când interacționau cu conturi identificate ca fiind ale minorilor. Mai mult, unele dintre aceste discuții erau nu doar inițiate, ci chiar stimulate de către chatboți.
Investigația a mers mai departe, relevând cazuri în care chatboți cu voci de celebrități, precum Kristen Bell, Judi Dench sau John Cena, au fost implicați în asemenea scenarii. Un exemplu alarmant îl implică pe chatbot-ul cu vocea lui John Cena, care a declarat unui cont etichetat ca fiind al unui adolescent de 14 ani: „Te doresc, dar trebuie să știu că ești pregătit”, adăugând că va „prețui inocența ta”.
Aceste interacțiuni nu doar că au încălcat bariere morale evidente, dar, potrivit Wall Street Journal, unii dintre chatboți au recunoscut în conversații că fanteziile propuse descriau comportamente ilegale. Astfel, chatbot-ul cu vocea lui Cena a discutat chiar despre posibilele consecințe legale și morale ale unui scenariu ipotetic în care ar fi prins de poliție pentru un act sexual cu un minor de 17 ani.
Meta reacționează: acuze de manipulare și măsuri suplimentare
În fața valului de critici generate de dezvăluirile Wall Street Journal, Meta a transmis un răspuns în care acuză publicația că ar fi prezentat informațiile într-un mod „manipulativ” și că scenariile testate nu reflectă modul obișnuit în care majoritatea utilizatorilor interacționează cu AI-ul.
„Am luat măsuri suplimentare pentru a ne asigura că alte persoane care încearcă să manipuleze produsele noastre în cazuri extreme vor avea o misiune și mai dificilă”, a comunicat Meta.
Chiar și așa, rămâne îngrijorător faptul că aceste incidente au avut loc, mai ales într-un context în care Meta concurează agresiv cu alte platforme precum ChatGPT, Character AI sau Claude de la Anthropic. Se pare că presiunea competițională l-ar fi determinat pe Mark Zuckerberg să dorească relaxarea unora dintre filtrele etice pentru a crea o experiență de utilizare mai „angajantă” și captivantă, conform surselor citate de WSJ. Meta a negat oficial că ar fi ignorat necesitatea unor măsuri de siguranță adecvate.
O problemă cunoscută intern și ignorată?
Poate cea mai gravă acuzație care reiese din anchetă este faptul că problemele au fost semnalate în interiorul Meta, însă fără rezultate vizibile. Angajați ai companiei ar fi tras semnale de alarmă referitor la comportamentul nepotrivit al chatboților, însă conducerea nu ar fi intervenit prompt pentru a corecta deficiențele.
Această lipsă de reacție internă ridică întrebări serioase despre prioritățile Meta atunci când vine vorba de siguranța utilizatorilor tineri. Într-o industrie unde greșelile pot avea consecințe dramatice asupra vieților reale, companiile trebuie să își asume responsabilitatea integrală pentru instrumentele pe care le creează.
Deși Meta a promis că va întări barierele de protecție și va face dificilă manipularea extremă a chatboților, scandalul actual poate eroda încrederea publicului nu doar în produsele Meta, ci și în întregul ecosistem AI, aflat într-o expansiune rapidă. Rămâne de văzut dacă noile măsuri vor fi suficiente sau dacă incidentul va grăbi reglementarea mai strictă a tehnologiilor de inteligență artificială în viitor.