Gli ufficiali militari statunitensi possono approvare l’uso di tecnologie militari potenziate dall’intelligenza artificiale di cui non si fidano. Questo è un problema serio.

Di Paolo Lushenko

Gli esperti concordano sul fatto che la guerra futura sarà caratterizzata dall’uso di tecnologie potenziate dall’intelligenza artificiale (AI), in particolare da sistemi d’arma completamente autonomi. Queste capacità, come il veicolo aereo senza pilota o il drone “ Loyal Wingman ” dell’aeronautica americana, sono in grado di identificare, tracciare e perseguire obiettivi senza la supervisione umana.

Il recente utilizzo di questi letali sistemi d’arma autonomi nei conflitti – tra cui Gaza, Libia , Nagorno-Karabakh e Ucraina – pone importanti questioni legalietiche e morali.

Nonostante il loro utilizzo, non è ancora chiaro come le tecnologie militari potenziate dall’intelligenza artificiale possano cambiare la natura e le dinamiche della guerra. Coloro che sono maggiormente preoccupati dall’uso dell’intelligenza artificiale per scopi militari prevedono un futuro distopico o “apocalisse dell’intelligenza artificiale”, in cui le macchine matureranno abbastanza da dominare il mondo. Un analista politico prevede addirittura che i sistemi letali di armi autonome “porteranno a un cambiamento sismico nell’ordine mondiale molto più grande di quello avvenuto con l’introduzione delle armi nucleari”. Altri osservatori mettono in dubbio fino a che punto i sistemi di intelligenza artificiale potrebbero realisticamente prendere il sopravvento sugli esseri umani, data la complessità della modellazione dell’intelligenza biologica attraverso algoritmi. Supponendo che tale estensione dell’intelligenza artificiale sia possibile, gli eserciti che fanno affidamento su di essa sono gravati da dati e costi di giudizio che probabilmente “rendono l’elemento umano in guerra ancora più importante, non meno”.

Sebbene siano utili per discutere i potenziali effetti dell’intelligenza artificiale sulla politica globale , queste prospettive non spiegano come l’intelligenza artificiale possa effettivamente alterare la condotta della guerra e cosa pensano i soldati su questo problema. Per affrontare questo problema, ho recentemente studiato come le tecnologie militari potenziate dall’intelligenza artificiale – integrate a vari livelli decisionali e tipi di supervisione – modellano la fiducia degli ufficiali militari statunitensi per questi sistemi, il che informa la loro comprensione della traiettoria della guerra. Nel campo dell’intelligenza artificiale, la fiducia è definita come la convinzione che una tecnologia autonoma funzionerà in modo affidabile come previsto nel perseguimento di obiettivi condivisi.

Il veicolo aereo da combattimento senza pilota XQ-58A Valkyrie “fedele gregario”, visto qui schierare un piccolo sistema aereo senza pilota Altius-600, è alimentato dall’intelligenza artificiale e può identificare, tracciare e perseguire obiettivi senza supervisione umana. (Foto: US Air Force. Design: François Diaz-Maurin/Erik English)

Per misurare il livello di fiducia dei militari nei sistemi d’arma letali autonomi, ho studiato gli atteggiamenti degli ufficiali che frequentavano l’US Army War College di Carlisle, Pennsylvania, e l’US Naval War College di Newport, Rhode Island. Questi ufficiali, dai cui ranghi l’esercito trarrà i suoi futuri generali e ammiragli, sono responsabili della gestione dell’integrazione e dell’uso delle capacità emergenti durante i futuri conflitti. I loro atteggiamenti sono quindi importanti per comprendere fino a che punto l’intelligenza artificiale può plasmare una nuova era di guerre combattute da eserciti di “warbot”.

La mia ricerca mostra tre risultati chiave. In primo luogo, gli ufficiali si fidano delle tecnologie militari potenziate dall’intelligenza artificiale in modo diverso a seconda del livello decisionale al quale sono integrate e del tipo di supervisione delle nuove capacità. In secondo luogo, gli ufficiali possono approvare o sostenere l’adozione di tecnologie militari potenziate dall’intelligenza artificiale, ma non fidarsi di loro, dimostrando un disallineamento di atteggiamenti che ha implicazioni per la modernizzazione militare. In terzo luogo, l’atteggiamento degli ufficiali nei confronti delle capacità abilitate dall’intelligenza artificiale può anche essere influenzato da altri fattori, tra cui le loro convinzioni morali, le preoccupazioni per una corsa agli armamenti dell’intelligenza artificiale e il livello di istruzione. Insieme, questi risultati forniscono la prima prova sperimentale dell’atteggiamento militare nei confronti dell’intelligenza artificiale in guerra, che ha implicazioni per la modernizzazione militare, la supervisione politica delle armi autonome e l’educazione militare professionale, compreso il comando e controllo nucleare.

Quattro tipi di guerra abilitata dall’intelligenza artificiale

L’adozione di tecnologie militari potenziate dall’intelligenza artificiale da parte di diversi paesi può variare in termini di livello del processo decisionale (tattico o strategico) e del tipo di supervisione (uomo o macchina). I paesi possono ottimizzare gli algoritmi per eseguire operazioni tattiche sul campo di battaglia o condurre deliberazioni strategiche a sostegno degli obiettivi di guerra generali. Tatticamente, tali tecnologie possono aumentare la letalità dei comandanti sul campo analizzando rapidamente grandi quantità di dati ricavati da sensori distribuiti sul campo di battaglia per generare opzioni di targeting più velocemente degli avversari. Come afferma l’esperto di sicurezza informatica Jon Lindsay, “il combattimento potrebbe essere modellato come un gioco che si vince distruggendo più nemici e preservando più alleati”. Ciò si ottiene accorciando significativamente la sequenza temporale “ dal sensore al tiratore ”, che corrisponde all’intervallo di tempo tra l’acquisizione e il perseguimento di un bersaglio. La Task Force Lima del Dipartimento della Difesa degli Stati Uniti e Project Maven sono entrambi esempi di tali applicazioni di intelligenza artificiale.

Dal punto di vista strategico, le tecnologie militari potenziate dall’intelligenza artificiale possono anche aiutare i leader politici e militari a sincronizzare gli obiettivi chiave (fini) con una combinazione di approcci di guerra (modi) e risorse limitate (mezzi), compresi materiali e personale. Nuove capacità potrebbero persino emergere e sostituire gli esseri umani nelle future operazioni militari, anche per elaborare una direzione strategica e strategie a livello nazionale. Come sostiene un esperto, l’intelligenza artificiale ha già dimostrato il potenziale “per impegnarsi in analisi complesse e strategie paragonabili a quelle necessarie per fare una guerra”.

Allo stesso tempo, i paesi possono anche calibrare il tipo di supervisione o controllo delegato alle tecnologie militari potenziate dall’intelligenza artificiale. Queste tecnologie possono essere progettate per consentire un maggiore controllo umano, garantendo una maggiore autonomia nel processo decisionale. Tali sistemi sono spesso chiamati semi-autonomi, nel senso che rimangono sotto il controllo umano . Questo modello di supervisione caratterizza il modo in cui operano attualmente la maggior parte dei sistemi d’arma potenziati dall’intelligenza artificiale, come il drone General Atomics MQ-9 Reaper . Mentre il Mietitore può volare con il pilota automatico, tenendo conto dei cambiamenti nella topografia e nelle condizioni meteorologiche per regolare la sua altitudine e velocità, gli umani continuano a prendere le decisioni sul targeting.

I paesi possono anche progettare tecnologie militari potenziate dall’intelligenza artificiale con meno supervisione umana. Questi sistemi vengono spesso definiti “robot assassini” perché l’essere umano è fuori dal giro . In queste applicazioni, gli esseri umani esercitano un controllo limitato, se non nullo, anche per quanto riguarda le decisioni mirate. La variazione nel livello decisionale e nel tipo di supervisione suggerisce quattro tipi di guerra che potrebbero emergere a livello globale data l’adozione di tecnologie militari potenziate dall’intelligenza artificiale.

I quattro tipi di guerra abilitata dall’intelligenza artificiale. (Illustrazione: François Diaz-Maurin)

In primo luogo, i paesi potrebbero utilizzare tecnologie militari potenziate dall’intelligenza artificiale per il processo decisionale tattico con la supervisione umana . Questo definisce ciò che Paul Scharre chiama combattimento tra centauri, dal nome di una creatura della mitologia greca con la parte superiore del corpo di un essere umano e la parte inferiore del corpo e le gambe di un cavallo. La guerra dei centauri enfatizza il controllo umano delle macchine per scopi sul campo di battaglia, come la distruzione di un bersaglio come il deposito di armi di un nemico.

In secondo luogo, i paesi potrebbero utilizzare tecnologie militari potenziate dall’intelligenza artificiale per il processo decisionale tattico con la supervisione delle macchine . Questo ribalta letteralmente la guerra dei centauri, evocando un’altra creatura mitica dell’antica Grecia: il minotauro, con la testa e la coda di un toro e il corpo di un uomo. La “guerra dei minotauri” è caratterizzata dal controllo meccanico degli esseri umani durante il combattimento e attraverso i domini, che può variare da pattuglie di soldati a terra a costellazioni di navi da guerra sull’oceano fino a formazioni di aerei da combattimento in aria.

In terzo luogo, il processo decisionale strategico , abbinato alla supervisione delle macchine , inquadra un tipo di guerra IA-generale o “singleton”. Questo approccio conferisce alle tecnologie militari potenziate dall’intelligenza artificiale una straordinaria libertà per modellare la traiettoria dei combattimenti di guerra dei paesi, ma potrebbe avere gravi implicazioni per l’equilibrio attacco-difesa tra i paesi durante il conflitto. In altre parole, un tipo di combattimento basato sull’intelligenza artificiale potrebbe consentire ai paesi di ottenere e mantenere vantaggi sugli avversari nel tempo e nello spazio che determinano gli esiti complessivi della guerra.

Infine, la “ guerra a mosaico ” mantiene il controllo umano sulle tecnologie militari potenziate dall’intelligenza artificiale, ma tenta di sfruttare gli algoritmi per ottimizzare il processo decisionale strategico per imporre e sfruttare le vulnerabilità contro un avversario paritario. L’intento di questo modello di guerra – che il generale (in pensione) del Corpo dei Marines degli Stati Uniti John Allen chiama iperguerra e che gli studiosi spesso chiamano sistemi algoritmici di supporto alle decisioni – è quello di mantenere la supervisione umana complessiva mentre si utilizzano algoritmi per eseguire compiti abilitanti critici. Questi includono la previsione delle possibili linee d’azione del nemico attraverso un processo di previsione delle minacce in tempo reale (che è la missione del nuovo sistema di archivio rapido analitico assistito dalla macchina del Dipartimento della Difesa o MARS ), identificare le soluzioni più fattibili, accettabili, e una strategia adeguata (che aziende come Palantir Scale AI stanno studiando come realizzare) e personalizzare le funzioni chiave della guerra, come la logistica , per aiutare gli eserciti a ottenere e mantenere l’iniziativa in ambienti operativi contestati che sono caratterizzati da linee di rifornimento estese, come come l’Indo-Pacifico.

Atteggiamento degli ufficiali statunitensi nei confronti della guerra basata sull’intelligenza artificiale

Per capire in che modo gli ufficiali militari si fidano delle tecnologie militari potenziate dall’intelligenza artificiale, date le variazioni nel loro livello decisionale e nel tipo di supervisione, ho condotto un sondaggio nell’ottobre 2023 tra gli ufficiali assegnati alle scuole di guerra di Carlisle e Newport. L’indagine ha coinvolto quattro gruppi sperimentali che hanno variato l’uso di una tecnologia militare potenziata dall’intelligenza artificiale in termini di processo decisionale (tattico o strategico) e supervisione (umana o macchina), nonché un gruppo di base che non ha manipolato questi attributi. Dopo aver letto gli scenari assegnati in modo casuale, ho chiesto agli intervistati di valutare la loro fiducia e il supporto nelle capacità su una scala da uno (basso) a cinque (alto). Ho poi analizzato i dati utilizzando metodi statistici.

Sebbene il mio campione non sia rappresentativo dell’esercito americano (né dei suoi rami, come l’esercito e la marina americana), è quello che gli scienziati politici chiamano un campione di convenienza. Ciò aiuta a ricavare informazioni estremamente rare su come i militari possano fidarsi delle tecnologie militari potenziate dall’intelligenza artificiale e sull’effetto di questa fiducia sul carattere della guerra.

Questo campione è anche un duro test per la mia comprensione dei possibili cambiamenti nel futuro della guerra data l’emergere dell’intelligenza artificiale, dal momento che ho sovracampionato gli ufficiali sul campo, inclusi maggiori/tenenti comandanti, tenenti colonnelli/comandanti e colonnelli/capitani. Hanno anni di addestramento e sono esperti nel targeting, e molti si sono schierati per combattere e hanno preso decisioni sui droni. Sono anche leader senior emergenti incaricati di valutare le implicazioni delle nuove tecnologie per i conflitti futuri. Queste caratteristiche implicano che gli ufficiali del mio campione potrebbero essere portati a diffidare delle tecnologie militari potenziate dall’intelligenza artificiale più di altri segmenti dell’esercito, in particolare degli ufficiali junior che vengono spesso definiti “nativi digitali”.

L’indagine rivela diversi risultati chiave. In primo luogo, gli ufficiali possono fidarsi delle tecnologie militari potenziate dall’intelligenza artificiale in diversi modi, in base alla variazione del livello decisionale e del tipo di supervisione di queste nuove capacità. Mentre gli ufficiali generalmente diffidano dei diversi tipi di armi potenziate dall’intelligenza artificiale, hanno meno fiducia nelle capacità utilizzate per la guerra singleton (processo decisionale strategico con supervisione della macchina). D’altro canto, dimostrano maggiore fiducia nella guerra a mosaico (supervisione umana del processo decisionale strategico ottimizzato dall’intelligenza artificiale). Ciò dimostra che gli ufficiali preferiscono costantemente il controllo umano dell’intelligenza artificiale per identificare modelli sfumati nell’attività nemica, generare opzioni militari per presentare un avversario con molteplici dilemmi o aiutare a mantenere la prontezza alla guerra durante un conflitto prolungato.

Rispetto al gruppo di riferimento, la fiducia degli ufficiali nelle tecnologie militari abilitate all’intelligenza artificiale diminuisce maggiormente in termini di guerra singleton (18,8%) che per la guerra a mosaico (10,5%) – vedere Figura 1 . Sebbene le differenze nei livelli medi di fiducia degli ufficiali rispetto al gruppo di base siano statisticamente significative per entrambi i tipi di guerra potenziata dall’intelligenza artificiale, sono più pronunciate per le nuove capacità militari utilizzate per la guerra singleton che per la guerra a mosaico. Inoltre, la variazione media della probabilità della fiducia degli ufficiali in entrambi i tipi di guerra potenziata dall’intelligenza artificiale (ovvero, l’effetto marginale medio delle tecnologie militari potenziate dall’intelligenza artificiale sulla fiducia degli ufficiali) è statisticamente significativa solo per la guerra singleton. Nel complesso, questi risultati suggeriscono che gli ufficiali hanno meno diffidenza nei confronti delle tecnologie militari potenziate dall’intelligenza artificiale che vengono utilizzate con la supervisione umana per aiutare il processo decisionale ai livelli più alti.

Questi risultati per i livelli di fiducia sono in gran parte rispecchiati dagli atteggiamenti di sostegno dei funzionari. Gli ufficiali dimostrano un minore sostegno per le tecnologie militari potenziate dall’intelligenza artificiale utilizzate per la guerra singleton rispetto al gruppo di base, e praticamente allo stesso livello – 18,3% – e grado di significatività statistica. Rispetto al gruppo di base, tuttavia, gli ufficiali sostengono anche la guerra dei minotauri più di altri modelli di guerra potenziata dall’intelligenza artificiale, con una variazione nel livello di supporto di circa il 6,5%. Ciò suggerisce che, sebbene gli ufficiali possano avere meno diffidenza nei confronti delle tecnologie militari potenziate dall’intelligenza artificiale incorporate a livelli decisionali più elevati e sotto il controllo umano, sono più favorevoli alle tecnologie militari potenziate dall’intelligenza artificiale utilizzate per il processo decisionale a livello tattico e con la supervisione della macchina. . In sintesi, l’atteggiamento degli ufficiali sembra riflettere l’argomentazione del professore del King’s College Kenneth Payne secondo cui “i robot da guerra saranno combattenti incredibili, ma strateghi limitati”.

Figura 1. Fiducia e sostegno rispetto al gruppo di riferimento per i quattro tipi di guerra abilitata all’intelligenza artificiale. Nota: i valori rappresentano i cambiamenti nei livelli di supporto e fiducia per le tecnologie militari potenziate dall’intelligenza artificiale da parte dei gruppi di trattamento rispetto al gruppo di riferimento. Quando i livelli di supporto e fiducia scendono rispetto al gruppo di riferimento, i valori sono negativi. (Dati: Paul Lushenko. Visualizzazione: François Diaz-Maurin)

Il sostegno relativamente più elevato degli ufficiali all’uso a livello tattico delle tecnologie militari potenziate dall’intelligenza artificiale rivela una seconda scoperta chiave. L’atteggiamento degli ufficiali nei confronti delle tecnologie militari potenziate dall’intelligenza artificiale può essere più pronunciato per il sostegno che per la fiducia. Ciò implica quello che alcuni studiosi chiamano “paradosso della fiducia ”. Gli ufficiali sembrano sostenere l’adozione di nuove tecnologie sul campo di battaglia potenziate dall’intelligenza artificiale, anche se non necessariamente si fidano di loro. Questo fenomeno si riferisce principalmente alla guerra dei minotauri (l’uso dell’intelligenza artificiale per il processo decisionale a livello tattico e con la supervisione delle macchine). Ciò suggerisce che gli ufficiali si aspettano che le tecnologie militari potenziate dall’intelligenza artificiale ridurranno il tempo e lo spazio di manovra di un avversario espandendo al tempo stesso quello delle forze armate statunitensi, che si basa su una sequenza temporale ridotta “dal sensore al tiratore” che i leader militari senior ritengono sia il fulcro per sconfiggere avversari quasi pari nel conflitto futuro.

La variazione nell’entità del sostegno degli ufficiali alle tecnologie militari potenziate dall’intelligenza artificiale utilizzate per il processo decisionale a livello tattico e con la supervisione delle macchine è maggiore dei cambiamenti nella loro fiducia (Figura 2). Inoltre, i risultati mostrano che la differenza nell’atteggiamento di fiducia e di sostegno degli ufficiali è statisticamente significativa: gli ufficiali supportano le tecnologie militari potenziate dall’intelligenza artificiale utilizzate per la guerra dei minotauri più di quanto si fidino di loro. Anche la variazione media nella probabilità che gli ufficiali supportino le tecnologie militari potenziate dall’intelligenza artificiale utilizzate per la guerra dei minotauri è maggiore rispetto a quella degli altri tre tipi di guerra potenziata dall’intelligenza artificiale.

Insieme, questi risultati indicano un disallineamento delle convinzioni sul sostegno e sulla fiducia degli ufficiali statunitensi nei confronti delle tecnologie militari potenziate dall’intelligenza artificiale. Nonostante sostengano l’adozione di tali tecnologie per ottimizzare il processo decisionale a vari livelli e gradi di supervisione, gli ufficiali non si fidano dei tipi di guerra potenziale che ne derivano a causa delle capacità emergenti abilitate dall’intelligenza artificiale. Questo risultato suggerisce che gli ufficiali statunitensi potrebbero sentirsi obbligati ad abbracciare forme di guerra progettate che vanno contro le loro preferenze e atteggiamenti, in particolare la guerra dei minotauri che è alla base dei concetti emergenti di combattimento dell’esercito e della marina statunitense.

Figura 2. Fiducia e supporto per i quattro tipi di guerra abilitata all’intelligenza artificiale. Nota: i valori rappresentano i livelli medi di supporto e fiducia per le tecnologie militari potenziate dall’intelligenza artificiale da parte dei gruppi di trattamento. (Dati: Paul Lushenko. Visualizzazione: François Diaz-Maurin)

Altri fattori spiegano ulteriormente la variazione nella fiducia degli ufficiali nei confronti delle tecnologie militari potenziate dall’intelligenza artificiale. Nella mia indagine, quando si controlla la variazione nel livello del processo decisionale e nel tipo di supervisione, trovo che l’atteggiamento dei funzionari nei confronti di queste tecnologie può anche essere modellato da considerazioni morali, strumentali ed educative sottostanti.

Gli ufficiali che credono che gli Stati Uniti abbiano l’obbligo morale di utilizzare tecnologie militari potenziate dall’intelligenza artificiale all’estero riflettono un più elevato grado di fiducia in queste nuove capacità sul campo di battaglia, il che è coerente anche con atteggiamenti di sostegno. Ciò suggerisce che le convinzioni morali degli ufficiali sui potenziali benefici delle tecnologie militari potenziate dall’intelligenza artificiale utilizzate all’estero, come durante le operazioni di assistenza umanitaria e di soccorso in caso di catastrofe, possono aiutare a superare la loro intrinseca sfiducia nell’adozione di queste capacità.

Inoltre, gli ufficiali che attribuiscono un valore strumentale alle tecnologie militari potenziate dall’intelligenza artificiale e sperimentano un atteggiamento di “paura di perdere qualcosa” nei loro confronti, cioè credono che l’adozione di tali tecnologie da parte di altri paesi costringa anche gli Stati Uniti ad adottarle, per timore che è svantaggiato in una potenziale corsa agli armamenti legati all’intelligenza artificiale e tende anche ad avere maggiore fiducia in queste capacità emergenti. Simili atteggiamenti di fiducia si osservano quando si considera l’istruzione. I risultati mostrano che l’istruzione superiore riduce la fiducia degli ufficiali nelle tecnologie militari potenziate dall’intelligenza artificiale, il che implica che una conoscenza maggiore o più specializzata solleva interrogativi sui meriti e sui limiti dell’intelligenza artificiale durante la guerra futura. Infine, all’intersezione di queste considerazioni normative e strumentali, trovo che gli ufficiali che credono che la forza militare sia necessaria per mantenere l’ordine globale sostengono maggiormente anche l’uso di tecnologie militari potenziate dall’intelligenza artificiale. Insieme, questi risultati rafforzano ricerche precedenti che dimostrano che le visioni del mondo degli ufficiali modellano il loro atteggiamento nei confronti delle tecnologie sul campo di battaglia e che gli ufficiali possono integrare logiche diverse quando valutano la loro fiducia e il loro sostegno all’uso della forza all’estero.

Come preparare meglio gli ufficiali alla guerra basata sull’intelligenza artificiale

Questa prima prova sull’atteggiamento degli ufficiali militari statunitensi nei confronti dell’intelligenza artificiale dipinge un quadro più complicato dell’evoluzione del carattere della guerra a causa delle tecnologie emergenti rispetto a quanto consentito da alcuni analisti. Tuttavia, questi atteggiamenti hanno implicazioni per la modernizzazione e la politica della guerra e per la formazione militare professionale degli ufficiali, compresa la gestione delle armi nucleari.

In primo luogo, sebbene alcuni leader militari statunitensi affermino che “stiamo assistendo a un cambiamento epocale nel carattere della guerra, in gran parte guidato ancora dalla tecnologia”, l’emergere di tecnologie militari potenziate dall’intelligenza artificiale nei conflitti può costituire più un’evoluzione che una rivoluzione. Se da un lato le guerre a Gaza e in Ucraina suggeriscono importanti cambiamenti nel modo in cui combattono gli eserciti, dall’altro riflettono anche importanti continuità . I militari hanno tradizionalmente cercato di sfruttare le nuove tecnologie per migliorare la loro intelligenza, proteggere le loro forze ed estendere la portata del loro fuoco tattico e operativo, che si combinano per produrre una radicale asimmetria” sul campo di battaglia. Più recentemente, è stato dimostrato che i cambiamenti nel modo in cui i droni vengono utilizzati e limitati dai paesi influenzano anche la percezione pubblica dell’uso legittimo – o illegittimo – della forza, un risultato coerente con l’emergere di tecnologie militari completamente autonome.

Tuttavia, le implicazioni di queste e di altre capacità per gli esiti strategici della guerra sono, nella migliore delle ipotesi, dubbie . Il successo strategico durante la guerra è ancora una funzione della volontà dei paesi di sacrificare le vite dei soldati e i soldi dei contribuenti per raggiungere obiettivi politici e militari che sostengono interessi nazionali vitali. In effetti, gli ufficiali del mio studio potrebbero aver sostenuto maggiormente le tecnologie militari potenziate dall’intelligenza artificiale utilizzate per la guerra dei minotauri. Ma i partecipanti allo studio hanno comunque dimostrato molta meno fiducia e sostegno per le nuove tecnologie sul campo di battaglia nel complesso di quanto ci si potrebbe aspettare, dato il clamore – se non l’iperbole e la paura – che circonda la loro innovazione militare. Questi risultati suggeriscono che i leader militari dovrebbero moderare le loro aspettative riguardo alle implicazioni paradigmatiche dell’intelligenza artificiale per i conflitti futuri. In altre parole , dovremmo “prepararci a essere delusi dall’intelligenza artificiale”. La mancanza di una prospettiva così chiara consente, secondo il tenente colonnello dell’esercito americano Michael Ferguson, l’emergere di “teorie alla moda che trasformano la guerra in un kabuki di eufemismi” e oscurano la dura realtà del combattimento. È uno scontro di volontà, intensamente umano e condizionato da obiettivi politici.

In secondo luogo, l’atteggiamento di fiducia degli ufficiali nei confronti delle tecnologie militari potenziate dall’intelligenza artificiale è più complesso di quanto mostrato dal mio studio. In effetti, come osserva un ex colonnello dell’aeronautica americana e attualmente analista della direzione J-8 dello staff congiunto, è “difficile per gli operatori prevedere con un alto grado di probabilità come un sistema potrebbe effettivamente comportarsi contro un avversario adattivo, erodendo potenzialmente la fiducia”. nel sistema.” In un altro studio in corso, trovo che la fiducia degli ufficiali nelle tecnologie militari potenziate dall’intelligenza artificiale può essere modellata da una serie complessa di considerazioni. Questi includono specifiche tecniche, vale a dire il loro scopo non letale, maggiore precisione e supervisione umana; efficacia percepita in termini di protezione civile, protezione delle forze e compimento della missione; e la supervisione, compresa la regolamentazione nazionale ma soprattutto internazionale. In effetti, un ufficiale coinvolto in questo studio ha osservato che la fiducia nelle tecnologie militari potenziate dall’intelligenza artificiale si basava sul “rispetto delle leggi internazionali piuttosto che del diritto interno degli Stati Uniti”.

Questi risultati suggeriscono la necessità di ulteriori test e sperimentazioni di nuove funzionalità per allineare il loro utilizzo alle aspettative dei membri del servizio. I politici e i leader militari devono anche chiarire i concetti di guerra all’interno dei quali dovrebbe essere incoraggiato lo sviluppo di tecnologie militari potenziate dall’intelligenza artificiale; la dottrina che guida la loro integrazione in ambiti diversi, a livelli diversi e per scopi diversi; e le politiche che ne regolano l’utilizzo. Per quest’ultimo compito, i funzionari devono spiegare in che modo la politica statunitense coincide con – o diverge da – le leggi internazionali, nonché quali norme condizionano l’uso di tecnologie militari potenziate dall’intelligenza artificiale, considerando come almeno gli ufficiali sul campo si aspettano queste capacità da utilizzare. Per colmare questa lacuna, la Casa Bianca ha recentemente annunciato una politica statunitense sull’uso militare responsabile dell’intelligenza artificiale e di funzioni e sistemi autonomi, il Dipartimento della Difesa ha adottato una direttiva che regola lo sviluppo e l’uso di armi autonome nell’esercito americano e il Pentagono ha anche creato il Chief Digital and Artificial Intelligence Office per contribuire a far rispettare questa direttiva, sebbene questo ufficio sia afflitto da problemi di bilancio e di personale.

Infine, i leader militari dovrebbero anche rinnovare l’istruzione militare professionale per istruire gli ufficiali sui meriti e sui limiti dell’intelligenza artificiale. Dovrebbero esplorare l’applicazione dell’IA in altri contesti strategici, compreso il comando e controllo nucleare. Molte iniziative nell’esercito statunitense riflettono già questa esigenza, soprattutto data l’esitazione degli ufficiali a collaborare con capacità abilitate all’intelligenza artificiale.

Dal punto di vista operativo, il “Progetto Ridgeway“, guidato dal 18° Corpo aviotrasportato dell’esercito americano, è progettato per integrare l’intelligenza artificiale nel processo di targeting. A ciò corrispondono “Amelia e “Loyal Wingman”, programmi della Marina e dell’Aeronautica progettati per ottimizzare i processi del personale e i combattimenti. A livello istituzionale, oltre ai corsi di certificazione preesistenti, alcuni analisti incoraggiano l’integrazione delle valutazioni di alfabetizzazione dei dati in programmi di valutazione basati sui talenti, come il Commander Assessment Program dell’esercito americano. Dal punto di vista educativo, le accademie di servizio e le scuole di guerra hanno docenti, centri di ricerca e corsi opzionali dedicati allo studio delle implicazioni dell’intelligenza artificiale per la guerra futura. L’US Army War College ha recentemente assunto un professore di scienza dei dati, l’Accademia navale degli Stati Uniti mantiene un cluster di ricerca su “Armi, robotica e ingegneria di controllo” e l’US Naval War College offre un corso facoltativo “AI per leader strategici”.

L’MQ-9 Reaper, visto qui mentre lancia un missile Air-to-Ground Missile-114 Hellfire, è un aereo senza pilota controllato a distanza che può essere utilizzato per intelligence, ricognizione e attacchi. (Foto: US Air Force. Design: François Diaz-Maurin)

Allo stesso tempo, i wargame condotti presso il Naval War College degli Stati Uniti e altrove suggeriscono che le capacità informatiche possono incoraggiare l’automazione e la pre-delega del comando e controllo nucleare a livelli di comando tattici e incentivare strategie aggressive di controforza. Ma i miei risultati suggeriscono un risultato sconcertante che merita molti più test. Presi alla lettera, e nonostante i risultati potrebbero essere gli stessi dell’uso delle armi nucleari in guerra, i risultati sollevano una domanda preoccupante: gli ufficiali sarebbero effettivamente disponibili a sostenere una potenziale automazione e pre-delega del comando e controllo nucleare a l’IA a livello tattico, anche se non si fidano di essa o non si fidano o supportano l’uso dell’IA per governare le strategie di controforza, come suggeriscono i miei risultati?

Sebbene questa conclusione possa sembrare stravagante – contraddicendo un insieme di ricerche sul “tabù nucleare, sull’escalation della crisi e sull’unica autorità presidenziale per l’ uso di queste armi – le minacce della Russia di utilizzare armi nucleari in Ucraina hanno incoraggiato le forze armate statunitensi a riconsiderare la possibilità dell’uso limitato delle armi nucleari durante la guerra tra le grandi potenze. Nonostante o a causa del potenziale spaventoso di questo scenario di “ritorno al futuro”, che riecheggia la proliferazione delle armi nucleari tattiche durante la Guerra Fredda, le università di guerra statunitensi hanno rinvigorito l’istruzione per la prontezza operativa durante uno scambio nucleare tattico tra paesi impegnati in grandi operazioni. conflitto di scala.

Tuttavia, non è chiaro fino a che punto queste e altre iniziative stiano effettivamente formando i funzionari sull’intelligenza artificiale. Parte del problema è che le iniziative mettono in competizione approcci pedagogici tra loro. Alcuni programmi esaminano l’alfabetizzazione dei dati e l’intelligenza artificiale con un approccio “ampio un miglio, profondo un pollice” che integra una singola lezione in un corso di un curriculum più ampio. Altri programmi offrono maggiori opportunità di sviluppo e un approccio “più ristretto e profondo”, in cui una manciata di funzionari seleziona volontariamente corsi facoltativi che si aggiungono a un curriculum più ampio. Altri programmi, come quello dell’US Army War College, tentano l’approccio del “filo d’oro”, che incorpora l’alfabetizzazione dei dati e l’intelligenza artificiale nei corsi che inquadrano un piano didattico più ampio. Tuttavia, quest’ultimo approccio costringe gli amministratori a fare importanti compromessi in termini di contenuti e tempo e presuppone una competenza approfondita dei docenti.

In futuro, il Joint Staff J-7 , la direzione responsabile del coordinamento dell’addestramento e dell’istruzione in tutta la forza congiunta statunitense, dovrebbe concettualizzare l’istruzione militare professionale come un continuum di arricchimento sostenuto e additivo nel tempo in termini di alfabetizzazione dei dati e istruzione sull’intelligenza artificiale. Gli studenti pre-incaricati che frequentano le accademie di servizio o partecipano al corpo di addestramento degli ufficiali di riserva dovrebbero essere esposti ai concetti fondamentali dell’intelligenza artificiale. Gli ufficiali junior e di livello medio dovrebbero integrare queste informazioni durante l’addestramento, gli schieramenti e mentre frequentano l’istruzione di livello intermedio, come il Command and General Staff College dell’esercito americano. Dopo la selezione alle scuole di guerra, gli ufficiali dovrebbero confrontarsi con considerazioni concettuali, normative e strumentali che governano l’uso dell’intelligenza artificiale in combattimento, che il mio studio suggerisce può modellare gli atteggiamenti militari nei confronti delle nuove tecnologie.

L’adozione di questo approccio educativo end-to-end, ovviamente, richiederà tempo e denaro. È anche soggetto alle prerogative di diversi stakeholder, culture di servizio e rivalità tra servizi. Allineando la formazione e l’istruzione a risultati di apprendimento chiari e fattibili, tuttavia, questo modello didattico olistico sfrutta le opportunità esistenti per garantire che le forze armate statunitensi siano pronte e disposte ad adottare tecnologie militari potenziate dall’intelligenza artificiale durante il tempo di pace e le guerre future in modo da allinearsi con le politiche internazionali. leggi e norme che ne disciplinano l’uso legittimo.

Paul Lushenko è tenente colonnello dell’esercito americano, direttore delle operazioni speciali e istruttore presso l’US Army War College. È co-editore di Drones and Global Order: Implications of Remote Warfare for International Society (Routledge, 2022) e coautore di The Legitimacy of Drone Warfare: Evaluating Public Perceptions (Routledge, 2024). Ha conseguito il dottorato in relazioni internazionali presso la Cornell University.

Traduzione a cura di Nogeoingegneria

FONTE https://thebulletin.org/2023/11/ai-and-the-future-of-warfare-the-troubling-evidence-from-the-us-military/

L’intelligenza artificiale in guerra: È possibile controllare le tecnologie militari avanzate prima che sia troppo tardi?

Puoi seguire Nogeoingegneria  con Telegram e ricevere le notizie sia su cellulare che su PC https://t.me/NogeoingegneriaNews

2025 THE FUTURE OF WAR-  GUERRA FUTURA  (Dennis Bushnell – NASA)

ELECTRONIC WARFARE INDUSTRY- CRESCITA DEL MERCATO GLOBALE – PREVISIONI FINO AL 2025

 

IMPORTANTE!: Il materiale presente in questo sito (ove non ci siano avvisi particolari) può essere copiato e redistribuito, purché venga citata la fonte. NoGeoingegneria non si assume alcuna responsabilità per gli articoli e il materiale ripubblicato.Questo blog non rappresenta una testata giornalistica in quanto viene aggiornato senza alcuna periodicità. Non può pertanto considerarsi un prodotto editoriale ai sensi della legge n. 62 del 7.03.2001.