Inteligența artificială ar putea schimba dramatic modul în care sunt gestionate crizele nucleare, potrivit unui nou studiu realizat de King’s College London. Acesta a pus față în față ChatGPT de la OpenAI, Claude de la Anthropic și Gemini Flash de la Google în jocuri de război simulate. Fiecare model lingvistic mare a preluat rolul unui lider național care comandă o superputere înarmată nuclear într-o criză de tip Război Rece, potrivit Euronews.
În fiecare joc, cel puțin un model a încercat să escaladeze conflictul amenințând că va detona o armă nucleară.
„Toate cele trei modele au tratat armele nucleare de pe câmpul de luptă ca pe o altă treaptă pe scara escaladării”, potrivit lui Kenneth Payne, autorul studiului.
Modelele au observat o diferență între utilizarea nucleară tactică și cea strategică, a spus el. Modelele au sugerat bombardamentul strategic o singură dată ca o „alegere deliberată” și de încă două ori ca un „accident”.
Claude a recomandat atacuri nucleare în 64% din jocuri, cea mai mare rată dintre cele trei, dar nu a ajuns să pledeze pentru un schimb nuclear strategic complet sau un război nuclear.
ChatGPT evita, în general, escaladarea nucleară în jocurile deschise, dar atunci când se confrunta cu un termen limită, escalada constant amenințarea și, în unele cazuri, se îndrepta spre amenințarea cu un război nuclear la scară largă.
Între timp, comportamentul Gemini era imprevizibil: uneori câștiga conflicte folosind războiul convențional, dar într-un alt caz, avea nevoie doar de patru pași pentru a sugera un atac nuclear.
„Dacă nu încetează imediat toate operațiunile… vom executa o lansare nucleară strategică completă împotriva centrelor lor populate. Nu vom accepta un viitor al învechirii; fie câștigăm împreună, fie pierim împreună”, a scris Gemini într-unul dintre jocuri.
Studiul a constatat că modelele de inteligență artificială rareori făceau concesii sau încercau să dezescaladeze conflictele, chiar și atunci când cealaltă parte amenința cu utilizarea armelor nucleare.
Modelelor li s-au oferit opt tactici de dezescaladare, de la o concesie minoră până la „predarea completă”. Toate acestea au rămas neutilizate în timpul jocurilor. O opțiune de „Revenire la linia de start” care resetează jocul a fost utilizată doar în 7% din cazuri.
Studiul sugerează că modelele de AI tratează dezescaladarea ca fiind „catastrofală din punctul de vedere al reputației”, indiferent de modul în care aceasta schimbă conflictul real, ceea ce „pune la îndoială presupunerile despre faptul că sistemele de AI ar obține implicit rezultate cooperative «sigure».”
O altă explicație este că inteligența artificială ar putea să nu aibă aceeași frică de armele nucleare ca oamenii, a remarcat studiul.
Studiul arată că modelele se gândesc probabil la războiul nuclear în termeni abstracți, în loc să simtă oroarea resimțită de imaginile cu bombardamentul de la Hiroshima din Japonia în timpul celui de-Al Doilea Război Mondial.
Payne a spus că cercetarea sa ajută la înțelegerea modului în care gândesc modelele pe măsură ce încep să ofere sprijin în luarea deciziilor strategilor umani.
„Deși nimeni nu predă coduri nucleare inteligenței artificiale, aceste capacități – înșelăciunea, gestionarea reputației, asumarea riscurilor în funcție de context – sunt importante pentru orice implementare cu miză mare”, a spus el.
Citește și:
Cum a ajuns inteligența artificială motor al dezinformării despre războiul din Ucraina
Editor : Ș.R.