Tehnologie

O femeie a fost acuzată pe nedrept de furt de inteligența artificială și interzisă în toate magazinele din Marea Britanie

O britanică a trăit un adevărat coșmar tehnologic după ce un sistem de recunoaștere facială alimentat de inteligență artificială a identificat-o eronat drept hoț. Femeia, care nu comisese nicio infracțiune, s-a trezit interzisă în toate magazinele unei cunoscute rețele de retail din Regatul Unit. Incidentul readuce în discuție pericolele automatizării excesive și lipsa de control uman în deciziile de securitate.

Acuzată pe nedrept de un algoritm

În mai 2025, o locuitoare din Manchester a intrat într-un magazin Home Bargains pentru a face cumpărături. Spre surprinderea ei, un angajat i-a cerut să părăsească imediat incinta, fără nicio explicație. Ulterior, i s-a recomandat să contacteze compania Facewatch, furnizorul sistemului de recunoaștere facială utilizat de lanțul de magazine.

Luna următoare, povestea s-a repetat într-o altă locație. De data aceasta, femeia a fost întâmpinată de echipa de securitate și escortată afară fără nicio justificare aparentă. Nedumerită și umilită, a insistat să afle motivul acestor expulzări. Răspunsul avea să fie și mai șocant: sistemul de recunoaștere facială o identificase ca autoarea unui furt de hârtie igienică dintr-un magazin Home Bargains, scrie BBC.

Fără să i se fi cerut un cuvânt sau o explicație, algoritmul hotărâse că este vinovată, iar imaginea ei fusese marcată drept „persoană indezirabilă” în toate locațiile rețelei.

Reabilitarea și reacțiile

După numeroase plângeri, dovezi clare că își achitase produsele și presiuni constante asupra companiei Facewatch, femeia a reușit în cele din urmă să fie exonerată. Home Bargains a suspendat ulterior colaborarea cu furnizorul de AI, ca reacție la situația creată.

Însă incidentul nu este singular. În 2024, o altă femeie din Marea Britanie a fost acuzată pe nedrept de furt de același sistem și a fost interzisă din toate magazinele rețelei. Cu toate acestea, Facewatch continuă să fie utilizat pe scară largă, inclusiv de unele autorități din Regat.

Cazul readuce în centrul atenției dezbaterea privind fiabilitatea recunoașterii faciale și a algoritmilor care, în absența controlului uman, pot comite greșeli cu consecințe grave asupra vieții oamenilor. Deși promovată ca o tehnologie de securitate de ultimă generație, AI-ul facial se dovedește adesea vulnerabil la erori, mai ales în situații în care baza de date este incompletă sau algoritmii nu sunt antrenați corect.

Expansiunea globală și dilemele etice

Tehnologia de recunoaștere facială este deja implementată masiv în Asia, în țări precum China și Japonia, unde este folosită inclusiv în transportul public și în spații de lucru. În Uniunea Europeană, utilizarea acestei tehnologii este reglementată mai strict prin GDPR și viitorul AI Act, care permit aplicarea ei doar în cazuri excepționale de securitate.

În Franța, spre exemplu, camerele „inteligente” sunt testate în scopuri experimentale, fără a utiliza momentan recunoașterea facială, ci doar pentru analiza comportamentelor din mulțime. Totuși, mulți experți avertizează că astfel de experimente deschid ușa pentru o adoptare mai largă și mai puțin controlată.

Cazuri ca cel din Manchester ar trebui să servească drept semnal de alarmă. Inteligența artificială poate fi un instrument valoros, dar atunci când devine judecător și juriu, fără intervenție umană, riscă să transforme greșelile în abuzuri.