Tehnologie

Cum îți controlează PC-ul noul model AI de la Anthropic: Claude 3.5 Sonnet îți poate imita acțiunile

Anthropic a făcut un pas important în direcția automatizării sarcinilor de pe PC odată cu lansarea modelului său AI, Claude 3.5 Sonnet, care poate acum să interacționeze direct cu aplicațiile de pe desktop. Noul model, disponibil în versiune beta deschisă prin API-ul „Computer Use”, poate imita acțiunile unui utilizator real, cum ar fi apăsarea tastelor, clicurile și mișcările mouse-ului.

Acest progres face parte din planul pe termen lung al companiei de a dezvolta asistenți virtuali capabili să efectueze sarcini complexe, cum ar fi cercetarea, gestionarea emailurilor și alte activități de birou. Cu toate acestea, chiar dacă modelul promite mult, există încă unele limitări și riscuri legate de utilizarea sa.

Automatizarea sarcinilor pe PC, un concept de viitor

Automatizarea sarcinilor de pe calculator nu este o idee nouă, însă capacitatea AI-ului Claude 3.5 Sonnet de a executa comenzi complexe direct pe desktop marchează o evoluție semnificativă. Modelul poate analiza capturi de ecran, număra pixeli și acționa în funcție de necesități pentru a finaliza sarcinile atribuite de utilizator. Aceasta include totul, de la completarea formularelor până la utilizarea software-ului de birou.

Platforme precum Amazon Bedrock și Google Cloud’s Vertex AI au integrat deja acest model, iar dezvoltatorii pot experimenta cu Computer Use API-ul oferit de Anthropic pentru a evalua eficiența sa în diverse scenarii. În ciuda potențialului ridicat, Anthropic recomandă folosirea acestui AI pentru sarcini cu riscuri scăzute, având în vedere că modelul întâmpină dificultăți la acțiuni precum derularea sau zoom-ul și poate rata acțiuni temporare, cum ar fi notificările.

Riscuri și măsuri de siguranță

Deși tehnologia pare promițătoare, Anthropic recunoaște că există riscuri. Într-un test de automatizare a rezervării de bilete de avion, Claude 3.5 Sonnet a finalizat cu succes mai puțin de jumătate din sarcinile atribuite, iar într-un alt test legat de inițierea unei returnări, modelul a eșuat în aproximativ o treime din cazuri. Aceste limitări ridică întrebări cu privire la capacitatea modelului de a gestiona sarcini mai complexe fără erori.

Un alt risc menționat este posibilitatea ca modele precum acesta să fie exploatate pentru activități rău intenționate. Studiile recente arată că unele AI-uri au fost manipulate pentru a realiza sarcini dăunătoare, iar un model cu acces la aplicații de pe desktop ar putea cauza și mai multe probleme dacă nu este monitorizat corespunzător. De aceea, Anthropic a implementat măsuri de siguranță, cum ar fi păstrarea capturilor de ecran timp de 30 de zile și prevenirea accesului la web în timpul antrenamentului.

În ciuda acestor riscuri, Anthropic rămâne optimistă, argumentând că beneficiile observării modului în care modelul este utilizat în practică depășesc riscurile asociate. Așadar, compania intenționează să continue dezvoltarea Claude 3.5 Sonnet, perfecționându-l pe parcurs și asigurându-se că măsurile de siguranță sunt la zi.

Aceasta lansare face parte dintr-un peisaj mai larg de dezvoltare a agenților AI, în care mai multe companii, inclusiv OpenAI, Microsoft și Salesforce, concurează pentru a crea tehnologii capabile să automatizeze sarcini complexe în diverse domenii.