Inteligența artificială în armată: o armă care accelerează procesul de luare a vieților
Recent, un oficial de rang înalt al Pentagonului a făcut declarații tulburătoare despre modul în care avansurile în inteligența artificială (AI) sunt folosite pentru a accelera procesul de luare a deciziilor letale pe câmpul de luptă. Radha Plumb, ofițerul șef pentru digitalizare și AI al Pentagonului, a explicat într-un interviu acordat publicației TechCrunch cum tehnologia modernă optimizează așa-numitul „lanț al uciderii” – un termen militar care desemnează etapele prin care o țintă este identificată, localizată și atacată.
Ce este „lanțul uciderii” și cum îl influențează AI
Conform unui document al Institutului Mitchell din 2023, „lanțul uciderii” se referă la procesul militar de identificare și atac al țintelor. Acesta este împărțit în șase pași esențiali: găsirea, fixarea, urmărirea, țintirea, angajarea și evaluarea. AI este folosită pentru a eficientiza și accelera aceste etape, oferind o precizie mai mare și reducând timpul de răspuns în situații de conflict.
Radha Plumb a declarat că folosirea inteligenței artificiale în planificarea și strategizarea operațiunilor militare permite comandanților să ia decizii mai rapide în situații critice.
„Creștem modalitățile prin care putem accelera execuția lanțului uciderii, astfel încât comandanții noștri să poată răspunde în timp util pentru a proteja forțele noastre”, a spus aceasta.
Mai mult, Plumb a subliniat că AI este utilă pentru simularea unor scenarii ipotetice și explorarea opțiunilor de răspuns în fața unor amenințări.
„Generative AI poate ajuta la crearea unor scenarii care permit comandamentelor să analizeze diverse opțiuni și compromisuri”, a adăugat ea. Totuși, utilizarea acestei tehnologii pentru a genera scenarii ce necesită forță letală ridică întrebări etice și morale.
Etica deciziilor letale în era AI
Deși Plumb a asigurat că deciziile letale implică întotdeauna supervizarea umană, utilizarea AI în context militar rămâne un subiect extrem de controversat.
„Din motive de fiabilitate și etică, vom avea întotdeauna oameni implicați în deciziile de utilizare a forței, inclusiv în cazul sistemelor noastre de armament”, a declarat oficialul Pentagonului.
Această afirmație, deși aparent menită să liniștească publicul, ridică alte semne de întrebare: ce se întâmplă dacă această supervizare umană devine din ce în ce mai limitată, pe măsură ce AI continuă să evolueze? În plus, faptul că Pentagonul nu exclude complet posibilitatea utilizării armamentului autonom sugerează că în viitor s-ar putea diminua implicarea umană în deciziile legate de forța letală.
Dezvăluirile sunt cu atât mai îngrijorătoare cu cât implicarea inteligenței artificiale în procesele militare devine tot mai frecventă. Într-un climat geopolitic tensionat, tehnologia poate transforma câmpul de luptă într-un mediu hiperautomatizat, unde viteza deciziilor primează, uneori în detrimentul evaluării etice și morale.
Utilizarea AI în armată deschide noi posibilități pentru eficientizarea operațiunilor, dar și pentru redefinirea granițelor dintre om și tehnologie în luarea deciziilor letale. Deși Pentagonul susține că etica și fiabilitatea rămân priorități, implicațiile acestei tehnologii sunt profund controversate.