Uniunea Europeană interzice sistemele AI cu „risc inacceptabil”
Uniunea Europeană face un pas important în reglementarea inteligenței artificiale prin aplicarea AI Act, primul cadru legislativ complet care stabilește regulile de utilizare a AI în spațiul comunitar. Începând cu 2 februarie 2024, autoritățile pot interzice utilizarea sistemelor de inteligență artificială considerate a avea un risc inacceptabil sau care ar putea cauza prejudicii.
Această legislație marchează o schimbare semnificativă în peisajul tehnologic, oferind un set clar de norme pentru dezvoltatorii și utilizatorii de AI. Firmele care nu respectă noile reglementări riscă amenzi de până la 35 de milioane de euro sau 7% din venitul anual, în funcție de suma mai mare.
Ce tipuri de AI sunt interzise în UE
AI Act clasifică sistemele de inteligență artificială în patru niveluri de risc:
Risc minim – cum ar fi filtrele de spam pentru emailuri, care nu sunt supuse reglementărilor.
Risc limitat – cum ar fi chatbot-urile de asistență clienți, care vor avea o supraveghere minimă.
Risc ridicat – cum ar fi AI utilizată în sănătate sau în recrutare, care va trebui să respecte reguli stricte.
Risc inacceptabil – aplicațiile AI din această categorie sunt interzise complet.
Printre sistemele AI care intră în categoria „risc inacceptabil” și care sunt acum interzise în UE se numără:
Scorarea socială – evaluarea oamenilor pe baza comportamentului lor (similar modelului din China).
Manipularea deciziilor – AI care influențează în mod subliminal sau înșelător comportamentul oamenilor.
Exploatarea vulnerabilităților – AI care profită de vârstă, dizabilități sau statut socio-economic.
Predicția criminalității – AI care încearcă să anticipeze dacă cineva va comite o crimă pe baza aspectului fizic.
Recunoașterea emoțiilor în școli și locuri de muncă – AI care încearcă să analizeze emoțiile angajaților sau elevilor.
Colectarea de date biometrice în timp real – supravegherea prin recunoaștere facială în spațiile publice.
Construirea bazelor de date de recunoaștere facială – colectarea imaginilor din surse precum camere de supraveghere sau internet.
Companiile care continuă să utilizeze astfel de tehnologii în UE vor fi sancționate, indiferent de țara în care își au sediul central.
Excepții și etape viitoare în aplicarea legii
Există însă anumite excepții de la interdicțiile impuse de AI Act. De exemplu, autoritățile de aplicare a legii pot folosi sisteme biometrice în spațiile publice dacă există o amenințare gravă, cum ar fi găsirea unei persoane răpite. În plus, AI care analizează emoțiile ar putea fi permisă în cazuri medicale sau de siguranță, de exemplu în terapii.
Deși firmele trebuie să fie în conformitate cu AI Act începând cu 2 februarie, sancțiunile efective vor începe din august 2024, când vor fi stabilite clar autoritățile responsabile cu aplicarea legii.
Până acum, peste 100 de companii, inclusiv Google, OpenAI și Amazon, au semnat EU AI Pact, un angajament voluntar de a respecta principiile AI Act chiar înainte de aplicarea sa oficială. Însă giganți precum Meta, Apple și startup-ul francez Mistral au ales să nu se alăture pactului.
Uniunea Europeană pregătește și noi linii directoare pentru a clarifica modul în care AI Act va interacționa cu alte legi precum GDPR, NIS2 (reglementări de securitate cibernetică) și DORA (norme pentru securitatea financiară). Astfel, firmele trebuie să înțeleagă nu doar AI Act, ci și cum acesta se va integra în peisajul mai larg al reglementărilor digitale.
AI Act este doar primul pas în reglementarea inteligenței artificiale în UE, dar oferă un model pe care și alte țări l-ar putea urma. Pe măsură ce tehnologia avansează, aceste reguli vor continua să fie ajustate pentru a proteja utilizatorii, fără a frâna inovația.