Poliția, “lenevită” de inteligență artificială. Cum au ajuns după gratii nevinovați identificați eronat de AI
Tehnologia recunoașterii faciale, alimentată de inteligență artificială, promite să revoluționeze modul în care poliția identifică suspecții. Cu toate acestea, realitatea arată că acest instrument aparent inovator poate deveni o sabie cu două tăișuri, transformând oameni nevinovați în victime ale unui sistem grăbit să găsească răspunsuri rapide. În SUA, cel puțin opt persoane au fost arestate pe nedrept, după ce software-ul de recunoaștere facială a oferit potriviri greșite. Lipsa dovezilor independente și încrederea excesivă în AI au transformat viețile acestor oameni în coșmaruri.
Cum se ajunge la arestări greșite
În mod ideal, recunoașterea facială ar trebui să fie doar un instrument suplimentar pentru identificarea suspecților, iar rezultatele sale trebuie coroborate cu alte dovezi. Totuși, în multe cazuri, poliția tratează sugestiile software-ului drept certitudini, ignorând chiar protocoalele proprii care cer verificări suplimentare. O anchetă realizată de The Washington Post a descoperit că 15 departamente de poliție din SUA au făcut arestări bazate exclusiv pe rezultate AI, fără să investigheze alibiuri, să compare probe ADN sau să țină cont de mărturii contradictorii.
Un exemplu este cazul lui Christopher Gatlin, un tânăr din St. Louis, acuzat de un atac pe care nu l-a comis. Polițiștii au folosit o imagine de proastă calitate dintr-o cameră de supraveghere și au introdus-o într-un software de recunoaștere facială. Sistemul a sugerat câteva potriviri, iar Gatlin a fost ales ca suspect, deși nu existau alte dovezi care să-l lege de crimă. A fost arestat și a petrecut 16 luni în închisoare înainte ca toate acuzațiile să fie retrase.
Tipare ale erorilor și consecințele lor
Cazurile de arestări greșite urmează adesea același tipar: polițiștii ignoră informațiile care contrazic ipoteza AI sau omită pași esențiali în procesul de investigare. Printre cele mai comune greșeli identificate în aceste cazuri se numără:
Ignorarea alibiurilor: În șase cazuri, polițiștii nu au verificat alibiurile suspecților. De exemplu, Quran Reid a fost acuzat de furt într-un magazin din Louisiana, deși dovedise că se afla la muncă în Atlanta în ziua respectivă.
Evidențe contrare neglijate: În New Jersey, poliția a ignorat probe ADN și amprente care indicau un alt suspect, concentrându-se doar pe potrivirea AI.
Identificări bazate pe caracteristici fizice eronate: În Detroit, Porcha Woodruff, o femeie însărcinată în șapte luni, a fost acuzată de jaf, deși imaginile video nu indicau implicarea unei femei însărcinate.
Martori influențați de AI: În șase cazuri, poliția a folosit martori care au confirmat greșit identificările făcute de software, deseori după ce au fost influențați de întrebările investigatorilor.
Consecințele acestor greșeli sunt devastatoare. Persoanele arestate pe nedrept și-au pierdut locurile de muncă, au acumulat datorii, iar familiile lor au fost profund afectate. În unele cazuri, copiii acestor victime au avut nevoie de consiliere psihologică pentru a face față traumei de a-și vedea părinții arestați.
De ce greșește inteligența artificială
Inteligența artificială nu este perfectă, iar limitările sale devin evidente în condiții reale. Deși software-ul de recunoaștere facială funcționează aproape impecabil în teste de laborator, folosirea imaginilor de calitate slabă, cum ar fi cele de pe camerele de supraveghere, duce la erori frecvente.
Un alt factor problematic este fenomenul de „bias automatizat”. Utilizatorii tind să aibă o încredere exagerată în rezultatele generate de AI, considerându-le mai precise decât sunt în realitate. De exemplu, în Maryland, un martor a fost influențat de polițiști să confirme un suspect identificat de AI, deși probele din teren contraziceau această alegere.
Mai mult, cercetările arată că software-ul de recunoaștere facială are o acuratețe mai mică pentru persoanele de culoare și alte minorități. Testele federale din 2019 au demonstrat că persoanele de culoare sunt de până la 100 de ori mai predispuse să fie identificate greșit decât bărbații albi, o problemă care reflectă prejudecățile din seturile de date folosite pentru antrenarea algoritmilor.
Soluții și necesitatea reglementărilor
Pentru a preveni astfel de greșeli, experții subliniază necesitatea unor reglementări stricte privind utilizarea recunoașterii faciale de către poliție. Deocamdată, doar șapte state din SUA cer poliției să raporteze utilizarea acestei tehnologii în anchete. În celelalte cazuri, lipsa transparenței face aproape imposibilă identificarea erorilor și tragerea la răspundere a celor implicați.
Poliția ar trebui să utilizeze recunoașterea facială doar ca instrument suplimentar, iar rezultatele sale ar trebui coroborate cu alte dovezi, cum ar fi alibiurile, probele ADN sau mărturiile martorilor. În plus, este esențială instruirea polițiștilor pentru a înțelege limitele și riscurile tehnologiei.
Concluzie: un echilibru între tehnologie și responsabilitate
Cazurile precum cele descrise demonstrează că tehnologia, departe de a fi infailibilă, poate deveni periculoasă atunci când este utilizată fără discernământ. Încrederea oarbă în AI, combinată cu neglijența umană, transformă vieți și distruge încrederea publicului în sistemul de justiție.
Pentru a preveni astfel de tragedii, poliția trebuie să adopte o abordare mai prudentă, să respecte protocoalele și să prioritizeze dovezile independente. Fără aceste măsuri, riscul de a condamna pe nedrept oameni nevinovați va rămâne o umbră întunecată asupra promisiunii tehnologice.