Mi fa venire in mente il titolo del film di Stanley Kubrick, intitolato Il dottor Stranamore – Ovvero: come ho imparato a non preoccuparmi e ad amare la bomba. Il film illlustra il concetto di distruzione reciproca assicurata e la follia della guerra.

L’intelligenza artificiale ci porta su un altro gradino della possibile distruzione apocalittica. La sua introduzione non è così traumatica come quella del nucleare, e ha già assunto un ruolo fondamentale in ambito militare. Basta guardare i contratti sul campo. Non si salva nessuno. L’IA è già fortemente integrata nella sfera militare. La domanda è: cosa fare, come fermare tutto questo?

Come Big Tech ha imparato ad amare l’esercito americano

Le aziende della Silicon Valley stanno abbandonando le politiche di sicurezza per ottenere contratti con il Pentagono, trasformando l’IA quotidiana in sistemi d’arma.

Dalla vittoria elettorale di Donald Trump, le principali aziende tecnologiche hanno abbandonato anni di politiche che limitavano il lavoro militare e hanno cercato contratti di difesa redditizi e legami più stretti con il Pentagono.
I dirigenti di Meta, OpenAI e Palantir presteranno giuramento venerdì come ufficiali della Riserva dell’Esercito. OpenAI ha firmato questa settimana un contratto di difesa da 200 milioni di dollari. Meta sta collaborando con la startup di difesa Anduril per sviluppare occhiali da combattimento basati sull’IA per i soldati.
Tutto questo mentre Trump spinge per un budget della difesa da 1 trilione di dollari, il più grande nella storia degli Stati Uniti.

Le aziende che costruiscono gli strumenti digitali quotidiani degli americani stanno ora entrando nel business della guerra. I giganti tecnologici stanno adattando i sistemi di IA consumer per usi sul campo di battaglia, il che significa che ogni query su ChatGPT e ogni scorrimento su Instagram ora potenzialmente addestra algoritmi di puntamento militare. Nel frattempo, le barriere di sicurezza vengono smantellate proprio mentre queste tecnologie a doppio uso diventano centrali per la guerra.

Un’inversione di tendenza per la Silicon Valley


La relazione tra la Silicon Valley e l’esercito non è nuova. I finanziamenti DARPA hanno contribuito a creare internet, il GPS e persino Siri. Per decenni, la ricerca militare si è riversata in applicazioni civili: il Pentagono ha sviluppato la tecnologia e le aziende l’hanno commercializzata per l’uso quotidiano.

Ma per anni, il flusso inverso è stato quasi inesistente. Quando le aziende tecnologiche hanno cercato di collaborare con l’esercito, i loro dipendenti si sono ribellati. I dipendenti di Google hanno organizzato proteste senza precedenti contro il Progetto Maven, un programma del Pentagono che utilizzava l’IA per analizzare filmati di droni. Quasi 5.000 lavoratori hanno firmato petizioni chiedendo all’azienda di annullare il contratto, e decine si sono dimessi.
La protesta ha funzionato. Google non ha rinnovato il contratto Maven e ha stabilito principi di IA che limitavano le applicazioni militari. Per anni, le principali aziende tecnologiche hanno mantenuto politiche contro lo sviluppo di armi, con i dipendenti che si opponevano con successo alle partnership militari.

Questa resistenza è crollata quando l’economia dell’IA è diventata insostenibile. Addestrare e gestire modelli linguistici di grandi dimensioni costa centinaia di milioni di dollari, e le entrate dai consumatori da sole non possono coprire i costi. Per molte aziende, lavorare con l’esercito non è solo un’opportunità, ma potrebbe essere essenziale per la sopravvivenza.

Il simbolo più evidente di questa partnership avverrà venerdì, quando i dirigenti della Silicon Valley indosseranno letteralmente uniformi dell’Esercito. Il chief technology officer di Meta, Andrew “Boz” Bosworth, il CTO di Palantir, Shyam Sankar, e i dirigenti di OpenAI, Kevin Weil e Bob McGrew, saranno nominati tenenti colonnelli nel primo programma “Detachment 201” dell’Esercito.

I riservisti tecnologici presteranno servizio per circa 120 ore all’anno, consigliando su sistemi basati sull’IA e assistendo il Dipartimento della Difesa nel reclutamento di altri specialisti high-tech. Saranno esentati dall’addestramento di base e avranno maggiore flessibilità rispetto ai riservisti tipici per lavorare da remoto. Grazie al loro status nel settore privato, ognuno avrà il grado di tenente colonnello, assumendo immediatamente ruoli di leadership senior.
“Dobbiamo muoverci più velocemente, ed è esattamente ciò che stiamo facendo qui”, ha dichiarato il generale Randy George, capo di stato maggiore dell’Esercito, al Wall Street Journal.

L’accordo crea un livello di integrazione senza precedenti tra aziende private e pianificazione militare. I dirigenti non lavoreranno su progetti che coinvolgono i loro datori di lavoro, ma avranno un ruolo diretto nella strategia militare mentre le loro aziende competono per enormi contratti di difesa.

Le partnership aziendali si stanno muovendo altrettanto velocemente. Il mese scorso, Meta e Anduril hanno annunciato una collaborazione per costruire visori a realtà aumentata per i soldati americani, iniziando con una tecnologia che fornisce informazioni sul campo di battaglia in tempo reale attraverso display heads-up.

I dispositivi si baseranno sul modello di IA Llama di Meta e sul software di comando e controllo di Anduril. L’obiettivo, secondo il CEO di Anduril, è “trasformare i combattenti in tecnomanti”.

Le barriere di sicurezza vengono abbattute
Mentre le aziende abbracciano i contratti militari, stanno silenziosamente abbandonando gli impegni per la sicurezza. Il Midas Project, un’organizzazione no-profit che monitora i cambiamenti nelle politiche delle principali aziende di IA, ha documentato circa 30 modifiche significative alle linee guida etiche dal 2023.

OpenAI ha rimosso valori come “orientato all’impatto”, che sottolineava come i dipendenti “si preoccupassero profondamente delle implicazioni nel mondo reale”, sostituendoli con “focus sull’AGI”. Google ha modificato il proprio quadro di sicurezza per suggerire che avrebbe seguito le linee guida solo se i concorrenti avessero adottato misure simili. OpenAI e altri hanno esplicitamente revocato i precedenti divieti sulle applicazioni militari.

Nel frattempo, la supervisione si sta effettivamente indebolendo. A maggio, il Segretario alla Difesa Pete Hegseth ha ridotto della metà l’ufficio indipendente di test delle armi del Pentagono, passando da 94 a 45 persone. L’ufficio, istituito negli anni ’80 dopo che le armi avevano avuto scarse prestazioni in combattimento, ora dispone di meno risorse per valutare i sistemi di IA proprio mentre questi diventano centrali per la guerra.

Il momento non potrebbe essere più significativo. Mentre conflitti come la guerra Israel-Iran dimostrano il ruolo crescente dell’IA nella guerra, le aziende che un tempo resistevano alle partnership militari sono ora parte integrante della strategia di difesa americana.

La domanda che gli americani devono porsi è se si sentono a proprio agio con questo nuovo assetto, in cui le loro interazioni digitali quotidiane addestrano i sistemi di IA che prendono di mira i nemici all’estero.

FONTE https://qz.com/tech-ai-military-pentagon-meta-google-openai

 

Se volete essere aggiornati sulle ultime novità, iscrivetevi al CANALE TELEGRAM https://t.me/NogeoingegneriaNews.

DARPA, NSA E PENTAGONO USANO LA SILICON VALLEY PER DOMINARE IL FUTURO

IL COMPLESSO MILITARE-INDUSTRIALE CI STA UCCIDENDO TUTTI

L’ASSALTO TECNOCRATICO – COME IMPEDIRE CHE LA DISTOPIA DIVENTI REALTÀ

IMPORTANTE!: Il materiale presente in questo sito (ove non ci siano avvisi particolari) può essere copiato e redistribuito, purché venga citata la fonte. NoGeoingegneria non si assume alcuna responsabilità per gli articoli e il materiale ripubblicato.Questo blog non rappresenta una testata giornalistica in quanto viene aggiornato senza alcuna periodicità. Non può pertanto considerarsi un prodotto editoriale ai sensi della legge n. 62 del 7.03.2001.