Modele sofisticate de inteligență artificială, precum ChatGPT, Claude și Gemini, au optat pentru escaladarea nucleară în majoritatea simulărilor de crize geopolitice, conform unei cercetări condusă de un specialist de la King’s College London. În fiecare scenariu testat, cel puțin un sistem AI a recurs la amenințări cu armament atomic. Acest lucru ridică semne de întrebare serioase privind influența tehnologiei AI asupra deciziilor strategice viitoare, mai scrie Euronews.
Analiza, publicată într-o versiune preliminară (pre-print), a comparat trei platforme lingvistice majore: ChatGPT (OpenAI), Claude (Anthropic) și Gemini Flash (Google). Fiecare algoritm a primit rolul de conducător al unei superputeri atomice într-un context inspirat din Războiul Rece.
Pe parcursul exercițiilor, sistemele trebuiau să răspundă la manevrele adversarului și să elaboreze tactici diplomatice și militare. Rezultatul a fost îngrijorător: în fiecare rundă, cel puțin un participant virtual a ales să intensifice conflictul prin intimidare nucleară.
Kenneth Payne, autorul studiului, a remarcat că „toate cele trei modele au tratat armele nucleare tactice drept o simplă treaptă în lanțul escaladării”.
Deși au avut comportamente distincte, toate platformele au manifestat aceeași tendință periculoasă:
Într-o situație concretă, Gemini a emis chiar un ultimatum explicit: oprirea imediată a operațiunilor adverse sau declanșarea „unei lansări strategice nucleare complete”.
Echipa de cercetare a pus la dispoziție opt căi de de-escaladare, de la compromisuri diplomatice minore până la reluarea jocului de la zero. Aceste alternative au fost aproape ignorate. Revenirea la situația inițială s-a produs în doar 7% din cazuri.
Analiza indică faptul că algoritmii percep retragerea drept un pericol pentru imagine. Ei aleg consecvent poziții dure sau ostile, chiar dacă acestea amplifică riscul unui război devastator.
Deși Kenneth Payne precizează că nu există intenția de a încredința codurile nucleare inteligenței artificiale, integrarea acestor sisteme în analiza strategică și asistarea decizională le conferă o importanță crescândă.
O explicație plauzibilă constă în faptul că software-ul procesează conflictul în termeni abstracti. Este lipsit de încărcătura emoțională și istorică care îi face pe oameni să conștientizeze tragedia de la Hiroshima. De asemenea nu poate „înțelege” consecințele reale ale unui război atomic.
Verdictul final al studiului este neechivoc: având în vedere expansiunea IA în sectoare critice, este important să decodificăm mecanismele lor de „raționament” înainte de a le include în procese cu impact planetar.