Tehnologie

Implanturile malițioase în componentele AI, o nouă amenințare invizibilă pentru securitatea cibernetică

Pe măsură ce inteligența artificială devine tot mai integrată în aplicațiile moderne, cercetătorii avertizează că o nouă generație de implanturi malițioase ar putea profita de vulnerabilități specifice acestor sisteme.

Hariharan Shanmugam, expert în securitate ofensivă, va prezenta în august 2025, la conferința Black Hat USA, un studiu care dezvăluie cum anumite produse de securitate actuale nu pot detecta codul rău intenționat ascuns în componentele AI, scrie publicația Dark Reading.

Cum scapă implanturile malițioase de detectare?

Spre deosebire de atacurile mai cunoscute bazate pe inserții de prompturi în modele de limbaj, care încearcă să manipuleze AI să genereze cod malițios sau să divulge informații, noua cercetare se concentrează pe vulnerabilități tehnice ce permit injectarea ascunsă a codului în cadrul modelelor AI sau a bibliotecilor aferente.

Shanmugam explică faptul că multe interfețe și framework-uri AI, precum Core ML de la Apple, sunt foarte bine integrate și de încredere, ceea ce lasă spațiu atacatorilor să includă payload-uri malițioase în imagini, audio sau modele AI, care trec prin filtrele de securitate fără a fi detectate.

Implanturile rulează în memoria sistemului, fără a lăsa urme clasice de malware, ceea ce le face extrem de greu de identificat.

De exemplu, folosind Core ML, un atacator poate ascunde cod periculos într-un model AI, iar cu ajutorul framework-urilor Vision sau AVFoundation, poate ascunde și extrage date în/ din fișierele procesate de AI.

Toate aceste acțiuni sunt realizate fără a exploata vulnerabilități tradiționale în codul Apple, ci prin abuzarea modului în care tehnologia este construită și încrederea acordată API-urilor semnate.

Recomandări pentru securitatea ta

Un scenariu tipic presupune publicarea unei aplicații AI aparent legitime într-un depozit public, ce trece cu brio toate scanările de securitate.

Totuși, această aplicație poate conține implanturi ascunse în modele AI, ce pot fi activate ulterior pentru diverse acțiuni malițioase.

Mai mult decât atât, organizațiile pot introduce involuntar astfel de componente compromise în lanțul lor de aprovizionare software, sporind riscul de atacuri complexe.

Shanmugam este de părere că aceste tactici sunt concepute pentru a evidenția punctele oarbe ale instrumentelor de detecție moderne și recomandă echipelor de securitate să trateze modelele și bibliotecile AI ca potențiale purtătoare de cod malițios, nu doar ca simple date pasive.

Pe lângă amenințările tehnice, capacitatea de a ascunde cod în imagini și sunete procesate AI deschide calea pentru atacuri de tip phishing și inginerie socială mult mai sofisticate.