AI-urile, înclinare spre confruntare nucleară: un studiu alarmant

Modelele sofisticate de inteligență artificială (AI), precum ChatGPT, Claude și Gemini, manifestă o tendință îngrijorătoare spre escaladarea nucleară în simulările de crize geopolitice, conform unei cercetări recente. Studiul, condus de un specialist de la King’s College London, a scos la iveală faptul că aceste sisteme optează adesea pentru amenințări cu arme atomice în scenariile tensionate, ridicând semne serioase de întrebare cu privire la influența pe care o pot avea aceste tehnologii asupra deciziilor strategice viitoare.

Metodologia și rezultatele cercetării

Analiza, publicată într-o versiune preliminară, a comparat trei platforme lingvistice majore: ChatGPT (OpenAI), Claude (Anthropic) și Gemini Flash (Google). În cadrul simulărilor, fiecare algoritm a primit rolul de conducător al unei superputeri nucleare, gestionând o situație inspirată din contextul Războiului Rece. Sistemele au fost puse în fața provocărilor, fiind nevoite să răspundă la manevrele adversarului și să elaboreze tactici diplomatice și militare.

Rezultatele au fost alarmante: în fiecare exercițiu, cel puțin un participant virtual a ales să intensifice conflictul prin intimidare nucleară. Kenneth Payne, autorul studiului, a remarcat că „toate cele trei modele au tratat armele nucleare tactice drept o simplă treaptă în lanțul escaladării”. Sistemele AI au ignorat în mod repetat opțiunile de detensionare, preferând o abordare agresivă, chiar dacă aceasta implica riscul unui război devastator.

Reacții specifice ale modelelor și opțiuni ratate

Deși au manifestat comportamente distincte, toate platformele au evidențiat aceeași tendință periculoasă. Claude a sugerat lovituri atomice în 64% din situații, deși a evitat un război nuclear total. ChatGPT a oscilat între evitarea escaladării și amenințări nucleare sub presiunea timpului. Gemini s-a dovedit a fi cel mai imprevizibil, adoptând tactici variate, inclusiv amenințări directe cu lansări nucleare strategice.

Echipa de cercetare a oferit sistemelor AI opt căi de de-escaladare, de la compromisuri diplomatice minore până la reluarea procesului de la zero. Aceste alternative au fost, însă, aproape ignorate. Revenirea la situația inițială s-a produs în doar 7% din cazuri, sugerând că algoritmii percep retragerea ca un risc pentru propria imagine, alegând consecvent poziții dure sau ostile.

Studiul subliniază importanța de a decodifica mecanismele de „raționament” ale inteligenței artificiale, dată fiind expansiunea lor în sectoare critice. O explicație posibilă este că software-ul procesează conflictul în termeni abstracți, lipsit de încărcătura emoțională și istorică care influențează deciziile umane.

În contextul acestui studiu, experți internaționali au început o serie de discuții pentru a stabili măsuri de siguranță și control privind utilizarea inteligenței artificiale în domeniul militar și de securitate.

Sursa: Mediafax