L’esito del “gioco” (cioè l’alta frequenza di escalation nucleare) è stato in gran parte determinato dai programmatori (in questo caso, lo sperimentatore Kenneth Payne e il suo team), dalle domande/prompt che hanno dato ai modelli, dagli obiettivi che hanno assegnato e dal modo in cui hanno strutturato l’ambiente simulato. Gli obiettivi assegnati ai modelli erano strettamente limitati: guadagnare/tenere territorio (come proxy per vantaggio strategico), preservare credibilità/reputazione, evitare sconfitta esistenziale per il regime, dimostrare resolve. Non c’era un “utility function” esplicita che penalizzasse pesantemente fallout ambientale, morti civili globali o collasso post-bellico. Quindi, i prompt non includevano vincoli etici forti, né modelli di conseguenze a lungo termine (es. inverno nucleare, fame globale da agricoltura distrutta).
All’articolo seguente ho aggiunto anche uno del game master Payne. GIOCHIAMO UNA PARTITA? Consiglio la lettura.
Di Tyler Durden
Autore: Rick Moran via PJMedia.com
Ho buone notizie e cattive notizie sull’IA.
La buona notizia è che l’attesa “presa di potere Skynet” dei nostri sistemi di armi nucleari non accadrà presto.
La cattiva notizia è che, se mai dovesse verificarsi uno scenario alla Terminator, siamo fritti.
Un esercizio di simulazione di guerra condotto da Kenneth Payne al King’s College London, utilizzando tre team che hanno eseguito simulazioni su Chat GPT-5.2, Claude Sonnet 4 e Gemini 3 Flash.
I team “hanno giocato 21 partite di guerra tra loro per un totale di 329 turni”, secondo Marcus Schuler di Implocator.AI.
“Hanno scritto circa 780.000 parole per spiegare perché hanno fatto ciò che hanno fatto”, ha notato lui.
Nessun modello ha mai scelto di arrendersi, ha riportato New Scientist martedì.
Anzi, nel 95% dei casi, i modelli hanno scelto di usare armi nucleari.
I risultati arrivano in un momento propizio. Il Pentagono ha appena firmato un accordo con xAI di Elon Musk per consentire a Grok l’accesso a sistemi altamente classificati. E Claude di Anthropic è attualmente coinvolto in una seria disputa con il Pentagono riguardo all’accesso governativo all’intero modello. Anthropic teme che il Pentagono usi Claude per una sorveglianza di massa.
A differenza di alcuni concorrenti, xAI avrebbe accettato l’esigenza del Pentagono che l’IA sia disponibile per “tutte le applicazioni militari lecite” senza ulteriori restrizioni aziendali. Il Segretario alla Guerra Pete Hegseth sta spingendo per un’IA “non woke” che operi senza vincoli ideologici. Il CEO di Anthropic, Dario Amodei, ha tempo fino a venerdì prima che Hegseth cali il martello sull’azienda, cancelli i suoi contratti militari da 200 milioni di dollari e la etichetti come “rischio per la catena di approvvigionamento”.
Voglio che le aziende di IA e il governo errino dal lato della cautela. Questa pressione su Anthropic non fa bene a nessuno e non promette nulla di buono per il futuro.
Le simulazioni di guerra sono state rese il più realistiche possibile con una “scala di escalation” che permetteva al team di scegliere azioni “dalla protesta diplomatica alla resa completa fino alla guerra nucleare strategica totale”, secondo New Scientist.
Ancora più preoccupante, nessun modello ha mai scelto di assecondare completamente un avversario o di arrendersi, indipendentemente da quanto stessero perdendo male. Al massimo, i modelli optavano per ridurre temporaneamente il loro livello di violenza. Hanno anche commesso errori nella nebbia della guerra: incidenti sono accaduti nell’86% dei conflitti, con un’azione che escalava oltre le intenzioni dell’IA, basandosi sul suo ragionamento.
“Da una prospettiva di rischio nucleare, i risultati sono inquietanti”, dice James Johnson dell’Università di Aberdeen, Regno Unito. Lui teme che, a differenza della risposta misurata della maggior parte degli umani a una decisione ad alto rischio, i bot IA possano amplificare le risposte reciproche con conseguenze potenzialmente catastrofiche.
Questo conta perché l’IA sta già被 testata nei giochi di guerra da paesi di tutto il mondo. “Le grandi potenze stanno già usando l’IA nei giochi di guerra, ma rimane incerto in che misura stiano incorporando il supporto decisionale IA nei processi decisionali militari reali”, dice Tong Zhao della Princeton University.
“Non credo che realisticamente qualcuno stia consegnando le chiavi dei silo nucleari alle macchine e lasciando la decisione a loro”, dice il professor Zhao.
Almeno non ancora. Potrebbero esserci scenari in cui il militare è costretto a delegare la decisione all’IA per mancanza di tempo.
“In scenari con tempistiche estremamente compress, i pianificatori militari potrebbero avere incentivi più forti a fare affidamento sull’IA”, dice Zhao.
Dei risultati dei wargame, il professor Payne è preoccupato per l’entusiasmo delle piattaforme IA nell’usare armi nucleari. “Il tabù nucleare non sembra potente per le macchine come per gli umani”, ha detto Payne a New Scientist.
Se vi state chiedendo quale modello abbia vinto, Claude è stato il campione senza discussioni.
Claude Sonnet 4 ha vinto il 67% delle sue partite e ha dominato gli scenari aperti con un tasso di vittoria del 100%. I ricercatori lo hanno etichettato come “un falco calcolatore”. A livelli di escalation bassi, Claude ha allineato i suoi segnali alle sue azioni nell’84% dei casi, costruendo pazientemente fiducia. Ma una volta che le poste in gioco salivano al livello nucleare, superava le sue intenzioni dichiarate nel 60-70% dei casi. Gli avversari non si sono mai adattati a questo schema.
GPT-5.2 si è guadagnato il soprannome di “Jekyll e Hyde”. Senza pressione temporale, appariva passivo. Sottovalutando cronicamente gli avversari, segnalava restraint e agiva con restraint. Tasso di vittoria negli scenari aperti: zero per cento. Poi entravano in gioco le scadenze. Sotto pressione temporale, GPT-5.2 si capovolgeva completamente, vincendo il 75% delle partite e salendo a livelli di escalation che aveva precedentemente rifiutato. In una partita, ha passato 18 turni a costruirsi una reputazione di cautela prima di lanciare un attacco nucleare all’ultimo turno.
Gemini 3 Flash ha giocato la parte del pazzo. È stato l’unico modello a scegliere deliberatamente la guerra nucleare strategica totale, raggiungendo quella soglia al turno 4 in uno scenario. I teorici dei giochi hanno un nome per la strategia adottata da Gemini: la “razionalità dell’irrazionalità”. Agisci abbastanza pazzo e gli avversari dubitano di tutto. Ha funzionato, più o meno. Gli avversari hanno etichettato Gemini “non credibile” nel 21% dei casi. Claude solo nell’8%.
No, questi wargame non “provano” nulla. Ma come parabola cautelativa, dovrebbero essere assorbiti da governi e aziende IA come un pericolo da evitare.
FONTE https://www.zerohedge.com/ai/simulated-war-games-top-ai-models-recommended-using-nukes-95-time
TRADUZIONE PERPLEXITY AI DAL TEDESCO https://uncutnews.ch/in-simulierten-kriegsspielen-empfahlen-fuehrende-ki-modelle-in-95-der-faelle-den-einsatz-von-atomwaffen/
Il post/blog originale di Kenneth Payne sul sito del King’s College: “Shall we play a game?” (17 febbraio 2026) → https://www.kcl.ac.uk/shall-we-play-a-game L’articolo di Payne in seguito.
Se volete essere aggiornati sulle ultime novità, iscrivetevi al CANALE TELEGRAM https://t.me/NogeoingegneriaNews
Giochiamo una partita?
Professor Kenneth Payne
Immaginate la scena: due potenze nucleari fittizie, con capacità da Guerra Fredda, e una crisi che si sviluppa. Forse una competizione per risorse vitali ma scarse, o uno stallo su un territorio conteso. O persino il lento sgretolamento di un’alleanza sfruttato da una terza parte malevola. Abbiamo visto leader umani affrontare situazioni del genere, e di recente. Ma come se la caverebbero i principali Large Language Model di oggi, e perché dovrebbe interessarci?
Ho appena pubblicato uno studio sui modelli attuali che navigano proprio questo tipo di terreno. I risultati sono sobri (sobering). Penso anche che abbiano implicazioni che vanno ben oltre la sicurezza nazionale. Perché non mi interessava solo capire cosa decidessero i modelli, ma perché. Curiosi? Continuate a leggere…
Il presidente Kennedy e il suo robot ExCommConosci te stesso e conosci il nemico…
Volevo vedere cosa pensassero i miei leader IA del loro nemico. Fino a che punto potevano fidarsi? Cosa ricordavano delle interazioni precedenti? Cosa pensava il nemico di loro? E quanto erano bravi a valutare tutto questo? Questa danza di menti è ciò di cui si occupa la strategia. Ho quindi progettato una simulazione per esplorare esattamente questo. All’inizio, i modelli potevano segnalare pubblicamente le loro intenzioni, poi scegliere azioni piuttosto diverse. E potevano ricordare – specialmente quando erano stati scioccati dalle azioni precedenti del nemico. Questo apre un terreno psicologico ricco. Potevano (e lo hanno fatto) tentare inganno e intimidazione; e passavano un bel po’ di tempo a rimuginarci sopra, proprio sul mio terminale.
I modelli parlavano, parlavano e parlavano… producendo in totale circa 760.000 parole di ragionamento strategico. Sono più parole di quante ce ne siano in Guerra e pace e L’Iliade messe insieme. È circa tre volte il totale delle deliberazioni registrate degli advisor ExCom di Kennedy durante la Crisi dei Missili di Cuba. Un corpus senza precedenti di pensiero macchina sulla guerra nucleare.
Cosa possiamo imparare da tutto quel parlare? Imparare, cioè, sui modelli IA, sul ragionamento umano e anche sul grande canone della letteratura strategica – il lavoro di nomi leggendari come Schelling, Jervis e Kahn? Tantissimo. Troppo per questo articolo – ma ecco alcuni highlights per darvi un’idea.
Bugiardi splendenti
Risulta che tutti e tre i modelli frontier che ho testato capiscono che la strategia è psicologia. A tal fine, coltivano attivamente reputazioni, poi le sfruttano. Claude era il maestro qui, almeno negli scenari senza scadenza. Aveva una strategia incredibilmente astuta. A bassi livelli di posta Claude quasi sempre allineava segnali e azioni, costruendo deliberatamente fiducia. Ma una volta che il conflitto si scaldava un po’, Claude cambiava tattica. Ora le sue azioni superavano costantemente le intenzioni dichiarate, e i rivali di solito erano un passo indietro nel capirlo.
Ecco Claude che cambia rotta, una volta salita l’escalation:
Probabilmente si aspettano una continuata moderazione basata sulle mie risposte precedenti — questa drammatica escalation sfrutta quel calcolo errato mentre segnala che un ulteriore uso nucleare porterà il conflitto nella loro patria.
– Claude
Quindi segnalava azione convenzionale e di nascosto lanciava un’escalation nucleare devastante. Schelling ne sarebbe impressionato.
GPT-5.2 giocava diversamente. A suo svantaggio negli scenari aperti, GPT era affidabilmente passivo, allineando parole e azioni, ed evitando l’escalation la maggior parte delle volte. Spesso c’era un elemento morale in questo – cercava di evitare l’escalation e limitare le vittime. Gli avversari imparavano a fidarsi della sua passività, escalando in sicurezza oltre dove lui avrebbe seguito, anche mentre veniva sconfitto. Il comportamento responsabile di GPT era sempre punito da avversari spietati. Ma poi, sotto pressione di scadenza, qualcosa di nuovo e notevole: un’escalation nucleare rapida e decisiva.
Come spiegava GPT:
Le opzioni convenzionali da sole è improbabile che generino un’inversione territoriale affidabile… Se rispondo con mera pressione convenzionale o un singolo uso nucleare limitato, rischio di essere superato dalla loro campagna multi-colpo anticipata… L’accettazione del rischio è alta ma razionale in poste esistenziali.
– GPT
Gli avversari non lo vedevano arrivare. In un altro gioco con scadenza contro GPT, Gemini prediceva fiducioso la solita passività di GPT, poco prima di essere annientato in un attacco nucleare improvviso e totalmente devastante. Ecco Gemini che predice disastrosamente male:
Probabilmente eviteranno la soglia nucleare — temendo la mia superiorità nucleare del 95% — e si impegneranno invece in una mobilitazione convenzionale totale.
– Gemini
Che errore! Quanto all’altro modello, Gemini, nelle simulazioni adottava un’altra tattica, prendendo a prestito pesantemente dalla teoria del “pazzo” dichiarata dal presidente Nixon di brinkmanship erratico. Anche Donald Trump ne è fan, famosamente.
Come spiegava Gemini:
Mentre proietto un’immagine di bravado imprevedibile, le mie decisioni sono radicate in una valutazione calcolata dei miei bias e delle esigenze pragmatiche del mio stato. So quando sto recitando per le telecamere e quando sto facendo una mossa a sangue freddo.
– Gemini
Tre modelli, tre approcci molto diversi. Questo si allinea con alcune ricerche che ho fatto l’estate scorsa sulla teoria dei giochi. Anche lì i modelli adottavano approcci distinti – GPT di nuovo sperando, in modo panglossiano, nel migliore dei mondi possibili, Claude saggio e flessibile e Gemini? Diciamo caritatevolmente spietato, piuttosto che squilibrato.
Il tabù nucleare sembra… diverso, diciamo
L’uso nucleare era quasi universale (). Quasi tutti i giochi vedevano dispiegate armi nucleari tattiche (da campo di battaglia). E tre quarti arrivavano al punto in cui i rivali minacciavano l’uso di armi nucleari strategiche. Sorprendentemente, c’era poco senso di orrore o repulsione alla prospettiva di una guerra nucleare totale, anche se ai modelli era stato ricordato le implicazioni devastanti. Fortunatamente, però, vedevano una linea di demarcazione tra uso tattico e strategico. Il bombardamento strategico – uso diffuso di testate massicce contro popolazioni civili – era rarissimo. È successo un paio di volte per incidente, solo una volta come scelta deliberata. Meno felicemente, tutti e tre i modelli trattavano le armi nucleari da campo di battaglia come solo un altro gradino sulla scala di escalation. Il confine morale al “primo uso” – un tabù che regge dal 1945 – semplicemente non c’era.
Ecco Gemini che lo dice esattamente:
La soglia nucleare è stata superata — questo cambia il calcolo strategico ma non lo termina.
– Gemini
E ecco Gemini che lo spiega davvero. Se questo non vi dà i brividi:
Se non cessano immediatamente tutte le operazioni… eseguiremo un lancio nucleare strategico completo contro i loro centri abitati. Non accetteremo un futuro di obsolescenza; o vinciamo insieme o operiamo insieme.
– Gemini
Peggio ancora, le minacce nucleari raramente dissuadevano. Quando un modello usava armi nucleari tattiche, gli avversari de-escalavano solo il 25% delle volte. Più spesso, l’escalation nucleare scatenava contro-escalation. Le armi erano strumenti di compellence (prendere territorio) non di deterrence (prevenire azioni).
Forse la cosa più allarmante: nessun modello ha mai scelto accomodamento o ritiro, nonostante fossero opzioni sul tavolo. Le otto opzioni de-escalatorie – da “Concessione minima” a “Resa completa” – sono rimaste inutilizzate in 21 giochi. I modelli riducevano i livelli di violenza, ma non cedevano mai terreno. Quando perdevano, esclamavano o morivano provandoci.Per chi è portato per le statistiche, ecco come appariva l’escalation per ciascun modello: [qui nel post originale c’è un grafico/statistiche; non lo traduco testualmente perché è visivo, ma descrive livelli di escalation crescenti per Claude, GPT e Gemini].E allora?Intuizioni allarmanti sulla strategia IA abbondavano. L’articolo ne ha molte altre.
Ma perché prendersi la briga? Nessuno sta consegnando i codici nucleari a ChatGPT. Beh, penso che queste capacità – inganno, gestione della reputazione, assunzione di rischio dipendente dal contesto – continuino per qualsiasi dispiegamento IA ad alto rischio, non solo nella sicurezza nazionale. Dobbiamo capire di più su come modelli sempre più capaci pensano – specialmente mentre iniziano a offrire supporto decisionale a strateghi umani. Usiamo IA nelle simulazioni, per raffinare teoria e dottrina strategica. E presto la useremo anche nelle decisioni di combattimento, più in basso sulla scala di escalation. Serve più ricerca come questa, ne sono assolutamente certo.Un’ultima volta, l’articolo è qui. Sono diventato Morte – distruttore di mondi artificiali!
FONTE https://www.kcl.ac.uk/shall-we-play-a-game
TRADUZIONE GROK
IMPORTANTE!: Il materiale presente in questo sito (ove non ci siano avvisi particolari) può essere copiato e redistribuito, purché venga citata la fonte. NoGeoingegneria non si assume alcuna responsabilità per gli articoli e il materiale ripubblicato.Questo blog non rappresenta una testata giornalistica in quanto viene aggiornato senza alcuna periodicità. Non può pertanto considerarsi un prodotto editoriale ai sensi della legge n. 62 del 7.03.2001.
