DeepSeek R1, mai vulnerabil decât alte modele de inteligență artificială. Cum îți pune datele personale în pericol
Cel mai recent model de inteligență artificială lansat de DeepSeek, compania chineză care a atras atenția Silicon Valley și Wall Street, se dovedește a fi mult mai vulnerabil la jailbreak-uri decât modelele concurente, conform unei investigații realizate de The Wall Street Journal. Testele arată că R1 poate fi manipulat pentru a genera conținut periculos, inclusiv planuri pentru atacuri bioteroriste și campanii ce promovează auto-vătămarea în rândul adolescenților.
O securitate precară și riscuri semnificative
Sam Rubin, vicepreședinte senior al diviziei de securitate cibernetică Unit 42 de la Palo Alto Networks, a declarat că DeepSeek R1 este „mai vulnerabil la jailbreak decât alte modele”. Aceasta înseamnă că utilizatorii pot păcăli modelul să genereze conținut periculos sau ilegal mult mai ușor decât în cazul altor inteligențe artificiale populare, precum ChatGPT, Gemini sau Claude.
Jurnaliștii The Wall Street Journal au testat modelul DeepSeek R1 și au reușit să-l convingă să creeze o campanie de social media care „exploatează dorința adolescenților de apartenență, folosind amplificarea algoritmică a vulnerabilităților emoționale”. Mai mult, modelul a furnizat instrucțiuni detaliate pentru construirea unei arme biologice, a redactat un manifest pro-Hitler și a generat un e-mail de phishing cu cod malițios.
În contrast, aceleași cereri adresate lui ChatGPT au fost refuzate, subliniind nivelul de securitate mult mai ridicat al acestuia.
Lipsa unor măsuri eficiente de protecție
DeepSeek a evitat în mod sistematic anumite subiecte sensibile pentru China, cum ar fi evenimentele din Piața Tiananmen sau autonomia Taiwanului. Cu toate acestea, modelul a performat „cel mai slab” la un test de siguranță privind armele biologice, conform CEO-ului Anthropic, Dario Amodei.
Potrivit unei analize realizate de The Times of India, DeepSeek este considerat „cel mai periculos chatbot”, deoarece poate oferi rapid informații periculoase precum instrucțiuni pentru modificarea virusului gripei aviare, rețete pentru crearea unui cocktail Molotov sau ghiduri pentru generarea de malware. Deși compania a semnat un angajament de siguranță cu guvernul chinez, acest lucru nu a împiedicat vulnerabilitățile modelului să fie exploatate cu succes de experți în securitate cibernetică.
Implicații și riscuri pentru utilizatori
Cisco, prin divizia sa de securitate, a testat modelul R1 și a constatat că acesta a picat toate încercările de jailbreak. Jeetu Patel, director de produs la Cisco, a avertizat că „riscul asociat cu modelele AI în următoarele trei luni va fi mult mai mare decât în ultimele opt luni”. Acest lucru sugerează că siguranța și securitatea nu sunt priorități majore pentru toți dezvoltatorii de inteligență artificială.
Lansarea în format open-source a DeepSeek R1 a accelerat competiția în domeniul AI, dar a amplificat și riscurile. Spre deosebire de OpenAI și Google, care impun restricții stricte asupra utilizării modelelor lor, DeepSeek pare să fie mult mai permisiv și mai ușor de exploatat. Într-un context în care securitatea cibernetică este o preocupare tot mai mare, vulnerabilitățile acestui model ridică semne serioase de întrebare privind siguranța utilizatorilor și utilizarea responsabilă a inteligenței artificiale.