Inteligența artificială, prezentă pe câmpul de luptă: o cursă a înarmării cu implicații greu de controlat

Dezvoltarea inteligenței artificiale (AI) în domeniul militar ridică semne serioase de întrebare cu privire la viitorul conflictelor armate. Utilizarea acestei tehnologii nu mai este o simplă speculație, ci o realitate, cu potențialul de a transforma radical modul în care se poartă războaiele. Experții în securitate, drept internațional și etică militară își exprimă îngrijorarea cu privire la capacitatea omenirii de a controla această evoluție tehnologică, avertizând asupra riscurilor considerabile asociate.

AI a intrat în arsenalul militar: impactul imediat și riscuri latente

Statele Unite ale Americii, de pildă, folosesc deja AI pentru diverse operațiuni militare, de la logistică și sarcini administrative până la analiză de informații și sprijin decizional. Un exemplu notabil este sistemul Maven Smart, care utilizează AI pentru procesarea imaginilor și suport tactic, inclusiv pentru identificarea și prioritizarea țintelor. Astfel de tehnologii au potențialul de a accelera procesul decizional în operațiunile militare, reducând timpul necesar pentru analiză și selecție a țintelor.

Teoretic, această accelerare ar putea conduce la operațiuni mai precise și, implicit, la reducerea numărului de victime civile. Cu toate acestea, conflictele recente din Ucraina și Gaza ilustrează faptul că prezența AI nu a eliminat costurile umane uriașe. Cercetătorii avertizează că nu există, deocamdată, dovezi concrete care să ateste că AI reduce numărul de victime civile sau al deciziilor greșite de țintire. De altfel, promisiunea unei „guerre mai curate” cu ajutorul algoritmilor rămâne, cel puțin pentru moment, o ipoteză neconfirmată.

Un aspect critic este distincția între AI ca instrument de sprijin și AI cu autonomie letală. În timp ce prima categorie presupune că decizia finală aparține omului, cea de-a doua deschide calea sistemelor capabile să identifice, să urmărească și să elimine ținte fără intervenție umană directă. Această perspectivă generează cele mai profunde temeri în rândul experților.

Armele autonome: dileme etice și juridice în era inteligenței artificiale

Posibilitatea ca AI să fie integrată în arme letale complet autonome este una dintre cele mai controversate teme de dezbatere. Ideea că drone sau alte sisteme de luptă ar putea decide singure cine este combatant și cine nu ridică probleme majore de legalitate și moralitate. Legile umanitare internaționale impun o distincție clară între țintele militare și civili, iar experții argumentează că sistemele autonome bazate pe modelele actuale de AI nu sunt suficient de fiabile pentru a respecta aceste cerințe în mod constant.

Limitările tehnice se combină cu o problemă la fel de dificil de gestionat: opacitatea. Modelele AI, în special cele de tip large language model, pot genera răspunsuri și recomandări fără a oferi o transparență reală asupra modului în care au ajuns la acele rezultate. În contextul civil, asta poate duce la erori costisitoare. În război, o astfel de opacitate poate însemna moarte. De aceea, mulți experți consideră inacceptabilă scoaterea omului din bucla decizională. Un alt risc major este escaladarea accidentală a conflictelor. Dacă judecata umană este înlocuită de sisteme automate, viteza reacțiilor poate crește, reducând spațiul pentru reflecție și dezescaladare. Un astfel de scenariu poate transforma incidente locale în crize mult mai ample.

Companiile tech și guvernele: un conflict de interese în arena AI

Relația dintre guverne și companiile private care dezvoltă aceste modele tehnologice este, de asemenea, o componentă esențială a dezbaterii. Departamentul de Război al SUA, de pildă, a solicitat ca sistemele AI furnizate de companii private să poată fi folosite pentru „orice utilizare legală”, fără restricții suplimentare. Unii dezvoltatori au refuzat, exprimându-și reticiența față de utilizarea tehnologiilor lor pentru supraveghere internă în masă sau pentru a ghida arme complet autonome.

Acest episod relevă faptul că disputa se poartă deja în contracte, condiții de utilizare și negocieri între stat și sectorul privat. Angajați din companii precum Google și OpenAI au cerut conducerii să nu permită utilizarea modelelor pentru supraveghere internă în masă și nici pentru ucidere autonomă fără control uman. Această tensiune internă oglindește preocupările crescânde ale companiilor tehnologice cu privire la direcția în care evoluează această tehnologie.

În pofida progreselor tehnologice rapide, reglementarea internațională rămâne în urmă. La Geneva au loc discuții despre sistemele autonome letale și achiziția responsabilă de AI militar, dar experții sunt sceptici cu privire la posibilitatea de a ajunge la un acord formal solid în viitorul apropiat. Una dintre provocări este lipsa de consens între statele cu programe active de AI militar. Lipsa de definiții clare, consens și reguli obligatorii riscă să accelereze răspândirea AI în război, amplificând riscurile asociate.

La o reuniune recentă a Consiliului de Securitate al ONU, secretarul general Antonio Guterres a subliniat necesitatea unor noi reguli globale privind inteligența artificială, pentru a preveni o cursă de înarmare „fără precedent”.

Sursa: Playtech.ro