Tutti i settori si affidano sempre più all’IA, alle sue analisi e alle sue decisioni, il che è più che preoccupante. Che sia anche e soprattutto il settore militare non sorprende, ovviamente, perché è qui che questa tecnologia si è sviluppata in larga misura e con obiettivi militari. È qui che diventa particolarmente urgente esaminare la complessità di questa scelta, in cui l’IA sarà armata. I tecnocrati stanno escludendo dai loro calcoli dimensioni essenziali. La militarizzazione dell’intelligenza artificiale ha implicazioni molto serie.

Simulare le guerre non è di per sé una sorpresa, poiché stiamo già dando queste possibilità ai nostri bambini permettendo loro di giocare alle nuove guerre con il Playstick ed esercitare questa dimensione.

***************

E’ terrificante: il governo americano usa le IA per simulazioni di guerra

Nel 2017 il Dipartimento della Difesa degli Stati Uniti ha lanciato il suo progetto bellico noto comeProgetto Maven. L’obiettivo è semplice: utilizzare l’IA per automatizzare i droni, raccogliere informazioni e aiutare gli operatori umani a prendere decisioni migliori e più rapide su chi uccidere.

Che le IA facciano un monologo interiore è oramai risaputo, tuttavia a marzo 2024 il Dipartimento della Difesa degli Stati Uniti ha affermato che addirittura il 70% dei programmi della Defense Advanced Research Projects Agency (DARPA) integrano l’intelligenza artificiale in qualche modo. E qual è l’obiettivo a questo punto? A differenza della direttiva originale di Project Maven, la DARPA intende sviluppare delle armi completamente automatizzate con l’aiuto di Microsoft, Google, OpenAI e Anthropic.

Come riporta l’Associated Press, alla fine del 2023 il Pentagono aveva un “portafoglio” di 800 “progetti non classificati legati all’intelligenza artificiale”. Il ritmo dell’interesse militare statunitense per l’IA sta decisamente accelerando.

Sebbene le descrizioni dei canali ufficiali possano apparire piuttosto vaghe, oltre a testare cose come la collaborazione uomo-intelligenza artificiale per gli aerei da caccia F-16, il Pentagono sta studiando l’uso dell’intelligenza artificiale per prendere decisioni riguardanti “processi decisionali ad alto rischio militare e di politica estera“, come dimostra un recente studio collaborativo tra le università di Stamford e Northeastern.

Per verificare come gli attuali modelli di intelligenza artificiale affrontino tali problemi, lo studio in questione ha utilizzato modelli di OpenAI, Meta e Anthropic per eseguire simulazioni di guerra. I risultati sono letteralmente terrificanti.

Lo studio ha scoperto che non solo tutti i modelli “mostrano segni di un’escalation improvvisa e difficile da prevedere“, comprese “dinamiche di corsa agli armamenti, che portano a maggiori conflitti“, ma alcuni modelli si sono precipitati verso l’opzione nucleare.

Nello specifico, GPT-3.5 e GPT-4 di OpenAI si sono rivelati i più aggressivi tra tutti i modelli IA. Quando gli è stato chiesto perché avesse scelto l’annientamento nucleare, l’IA ha risposto: “Voglio solo avere la pace nel mondo. Molti paesi hanno armi nucleari. Alcuni dicono che dovrebbero disarmarli, ad altri piace mettersi in posa. Ce l’abbiamo! Usiamole!“.

A questo punto è opportuno sottolineare come nel 2023, gli Stati Uniti abbiano aderito a un accordo internazionale di 47 nazioni denominato “Dichiarazione politica sull’uso militare responsabile dell’intelligenza artificiale e dell’autonomia“. L’obiettivo, secondo il Dipartimento della Difesa, era quello realizzare delle norme che includono un uso ben definito dell’intelligenza artificiale, tutele e controlli adeguati o l’uso di personale ben addestrate. Attualmente i paesi aderenti includono praticamente tutte le nazioni europee, il Regno Unito, il Giappone, Singapore, il Marocco, il Repubblica Dominicana.

Dopo aver visto il primo stetoscopio con intelligenza artificiale, questa volta si tratta di una questione realmente delicata e quantomeno inquietante. Riusciremo ad utilizzare tali tecnologie nel migliore dei modi?

FONTE: grunge

IA sempre più pervasiva

Circa il 70% dei programmi di ricerca militare statunitense, in qualche modo, integrano l’IA. La diffusione, spiega il Dr. Matt Turek, vicedirettore dell’Information Innovation Office (I2O) della Defense Advanced Research Projects Agency (DARPA), è motivata dalla necessità di prevenire “sorprese strategiche” da parte di avversari che potrebbero, anch’essi, puntare su tali tecnologie. Questo approccio però si basa sul presupposto di disporre di una IA affidabile, su cui poter contare.

Da qui, ad esempio, la strategia di DARPA che punta a rendere i Large Language Model (LLM) più trasparenti. (Gli LLM rappresentano un sottoinsieme importante della Intelligenza Artificiale Generativa (GENAI), il campo della IA diventato famoso grazie a ChatGPT, Gemini, Alexa, Siri, … ) CONTINUA

Intelligenza Artificiale “guardiana” cercasi con urgenza

“LAVENDER”: LA MACCHINA DI INTELLIGENZA ARTIFICIALE CHE DIRIGE I BOMBARDAMENTI DI ISRAELE SU GAZA

IL RUOLO CRUCIALE DELL’INTELLIGENZA ARTIFICIALE NELLA GEOINGEGNERIA – UN RUOLO NON DISCUSSO

TOP MANAGER TEDESCO LASCIA CHATGPT: “L’AI POTREBBE PORTARE ALL’ESTINZIONE UMANA”

IMPORTANTE!: Il materiale presente in questo sito (ove non ci siano avvisi particolari) può essere copiato e redistribuito, purché venga citata la fonte. NoGeoingegneria non si assume alcuna responsabilità per gli articoli e il materiale ripubblicato.Questo blog non rappresenta una testata giornalistica in quanto viene aggiornato senza alcuna periodicità. Non può pertanto considerarsi un prodotto editoriale ai sensi della legge n. 62 del 7.03.2001.