Defense Secretary Pete Hegseth and Anthropic CEO Dario Amodei Jeremy Leung/WSJ, AP, Bloomberg
Oggi chi ha la responsabilità dell’uso militare della forza può scaricarla sulle macchine, man mano che vengono coinvolte nelle «procedure d’ingaggio». Non solo missili sempre più precisi, bombe intelligenti, droni difficili da intercettare perché lanciati a sciami, killer volanti che inseguono il singolo soldato fin dentro la trincea. E, ancora, cannoni-robot, droni che piovono dal cielo per bloccare le petroliere e droni subacquei che affondano navi nel Mar Nero, sabotano un gasdotto sottomarino nel Baltico o tranciano cavi in fibra ottica che collegano i continenti. Tutto relativamente facile e poco costoso per chi sa usare con perizia l’intelligenza artificiale (AI).
Negli ultimi anni, soprattutto da quando, con ChatGPT, siamo entrati nell’era dei modelli linguistici, questi impieghi sono esplosi. Non soltanto attacchi fisici come, a proposito di esplosioni, quelle simultanee dei cercapersone di migliaia di hezbollah filoiraniani in Libano, firmate del Mossad. CONTINUA
Dario Amodei, capo di Anthropic, che denuncia i rischi enormi che derivano dal fatto che la politica non ha costruito un argine legale per lo tsunami tecnologico. Lo vediamo da anni; prima in Ucraina, poi a Gaza, ora in Iran.
“Non possiamo, in coscienza.” Il no di Dario Amodei al Pentagono
di Patrizia Migliozzi (*)
C’è un uomo che ieri ha detto no al Pentagono. Non a un cliente qualunque: al Dipartimento della Difesa degli Stati Uniti, con 200 milioni di dollari di contratto sul tavolo e la minaccia di perdere tutto.
Si chiama Dario Amodei. È italoamericano — padre di Massa Marittima, madre di Chicago — e insieme alla sorella Daniela ha fondato Anthropic, l’azienda dietro Claude, uno dei più avanzati sistemi di intelligenza artificiale al mondo. Giovedì scorso ha pubblicato una dichiarazione che vale la pena leggere, perché in un’epoca in cui le aziende tech si genuflettono davanti a qualsiasi potere, suona quasi anacronistica: “non possiamo, in coscienza, accettare la loro richiesta.”
Cosa chiedeva il Pentagono?
Il segretario alla Difesa Pete Hegseth aveva dato un ultimatum ad Anthropic: entro venerdì, rimuovere qualsiasi salvaguardia dal sistema Claude e metterlo a disposizione dell’esercito per “qualsiasi uso legale”, senza limitazioni.
In caso contrario, taglio del contratto, designazione dell’azienda come “rischio per la catena di approvvigionamento” — un’etichetta fino ad oggi riservata agli avversari degli USA, mai a un’azienda americana — e persino l’invocazione del Defense Production Act, legge della Guerra Fredda che consentirebbe allo Stato di requisire tecnologie private.
Amodei ha risposto no. E ha spiegato perché con una precisione che raramente si sente nel settore tech.
Le sue preoccupazioni erano due, concrete e circostanziate. Prima: l‘uso dell’IA per la sorveglianza di massa dei cittadini americani. I modelli come Claude potrebbero teoricamente aggregare dati dispersi su milioni di persone e costruire profili individuali a una scala mai vista prima — con implicazioni devastanti per i diritti civili. Seconda: l’impiego in armi completamente autonome. I sistemi di IA attuali, ha detto Amodei, non sono abbastanza affidabili per essere lasciati soli a decidere se e quando colpire. Un errore in quel contesto non è un bug da correggere: è una vita umana.
“In un ristretto numero di casi”, ha scritto, “riteniamo che l’IA possa minare, anziché difendere, i valori democratici.”
Il venerdì è arrivato e con lui la rappresaglia. Hegseth ha ufficialmente etichettato Anthropic come rischio per la catena di approvvigionamento — prima volta nella storia per un’azienda americana. Trump ha ordinato a tutte le agenzie federali di sospendere immediatamente l’uso della tecnologia Anthropic. Il sottosegretario Emil Michael ha scritto sui social che Amodei “ha un complesso da Dio” e vuole controllare l’esercito americano.
Amodei ha risposto anche a questo, in un’intervista a CBS News: “Tutto quello che abbiamo fatto è stato nell’interesse di questo Paese. Le loro azioni sono state ritorsive e punitive.”
Potrebbe sembrare una disputa lontana, tra poteri americani che non ci toccano. Non è così. Perché questa vicenda parla di qualcosa di molto importante: chi costruisce gli strumenti di intelligenza artificiale che usiamo ogni giorno, e con quali valori li costruisce.
Anthropic nasce nel 2021 proprio da una rottura con OpenAI — la società che ha creato ChatGPT. Amodei e sua sorella lasciano OpenAI quando Microsoft ci investe un miliardo di dollari e l’azienda vira verso una logica puramente commerciale. Fondano Anthropic con una missione esplicita: costruire IA sicura, eticamente fondata, con paletti chiari su cosa il sistema può e non può fare.
Negli anni successivi, OpenAI ha continuato a espandersi, raccogliendo 110 miliardi di dollari di nuovi investimenti questa settimana sola — e il suo CEO Sam Altman, secondo il Wall Street Journal, si è offerto di “mediare” nel conflitto tra Anthropic e il Pentagono, schierandosi di fatto con chi chiedeva meno vincoli.
Questa differenza di visione non è astratta. Si traduce in come vengono addestrati i modelli, quali contenuti vengono bloccati, se e come i dati degli utenti vengono trattati, se un’azienda è disposta a perdere un contratto da 200 milioni pur di non diventare complice di sorveglianza di massa.
Dario Amodei ha scelto. E la sua scelta, in questo momento storico in cui le grandi aziende tech fanno a gara per compiacere l’amministrazione Trump, merita di essere conosciuta.
Non è una storia di tecnologia. È una storia di coraggio civile. E di quali strumenti decidiamo di mettere nelle nostre mani.
(*) Articolo21.org
FONTE https://www.ore12.net/non-possiamo-in-coscienza-il-no-di-dario-amodei-al-pentagono/
L’escalation tra Anthropic e il Pentagono ha caratterizzato sempre più gli ultimi giorni, tra minacce, risposte impulsive, controrisposte. L’importanza della situazione è stata certificata anche dalle scuse che Dario Amodei, in un’intervista a “The Economist”, ha fatto per un memo interno trapelato alla stampa attraverso il sito specializzato “The Information”, in cui Amodei accusava l’amministrazione Trump di voler punire l’azienda per non aver elargito denaro ed elogi in stile dittatoriale al presidente, schernendo anche i dipendenti della rivale OpenAI. FONTE
Opporsi al Pentagono, come fa Anthropic. La lettera di dipendenti di Google e OpenAI, Altman condivide la battaglia
Sono un piccola quota della forza lavoro, oltre 300, e chiedono alle aziende di giocare di squadra per non subire le volontà della politica. A conferma che a chiedere cautela sull’utilizzo dell’intelligenza artificiale è spesso chi la maneggia tutti i giorni. Gli appelli per un’Agenzia internazionale per l’IA, come accade per il nucleare.
“Non saremo divisi”. È il titolo della lettera sottoscritta da oltre 300 dipendenti di Google e OpenAI, per chiedere ai vertici delle due aziende di seguire Anthropic nella sua battaglia contro il Pentagono. Per aumentare la pressione sulla startup di Dario Amodei e convincerla a cedere sull’utilizzo illimitato del modello Claude in dotazione all’esercito americano, il Dipartimento della Difesa, ormai ribattezzato della Guerra, minaccia di inserirla tra i rischi della catena di approvvigionamento, mentre negozia con altri competitor. Oltre a xAi di Elon Musk, ci sono proprio Google e OpenAI con i loro Gemini e ChatGPT. “Stanno cercando di dividere ogni azienda per paura che l’altra ceda”, scrivono i dipendenti. “Questa strategia funziona solo se nessuno di noi sa dove si trovano gli altri. Questa lettera serve a creare comprensione reciproca e solidarietà di fronte a questa nuova pressione da parte del Dipartimento della Guerra”. Da qui la necessità di “mettere da parte le divergenze e restare uniti per continuare a rifiutare le attuali richieste”.
Il messaggio è chiaro: occorre giocare di squadra per evitare di subire le volontà della politica. C’è da dire che a lanciarlo è solamente una piccola parte della forza lavoro di due colossi come Google e OpenAI. Al loro interno, vantano rispettivamente 200mila e 10mila persone. Difficile dunque che possano smuovere più di tanto, anche se le class action sono state spesso il punto di partenza per i cambiamenti dal basso. Ad ogni modo è un segnale, l’ennesimo, che mette in luce un aspetto ormai impossibile da ignorare: a chiedere una maggiore cautela sull’utilizzo dell’intelligenza artificiale sono gli stessi che la maneggiano tutti i giorni.
Sam Altman, padre di OpenAI, sembra volerli ascoltare. “Crediamo da tempo che l’intelligenza artificiale non debba essere utilizzata per la sorveglianza di massa o per armi letali autonome, e che gli esseri umani debbano rimanere coinvolti nelle decisioni automatizzate ad alto rischio. Queste sono le nostre principali linee guida”, scrive l’amministratore delegato rivolgendosi al suo personale. Quanto sta succedendo tra il governo e Amodei riguarda tutti. “Indipendentemente da come siamo arrivati a questo punto, questa non è più solo una questione tra Anthropic e il Pentagono”, ma una vicenda che coinvolge “l’intero settore ed è importante chiarire la nostra posizione”. Per questo, nelle trattative che OpenAI sta tenendo con la Difesa per poter operare anche sui documenti classificati, Altman assicura di tenere la barra dritta.
Il pensiero di alcuni amministratori delegati a capo di aziende tecnologiche è che etica e progresso possono camminare insieme. Anzi, sono obbligati a farlo se non si vuole incappare in conseguenze pericolose. Altman lo aveva detto tre anni fa al Congresso, quando sottolineava la necessità di muoversi collettivamente per regolare l’IA. E, nonostante alcune sue decisioni controverse, lo ha ribadito la settimana scorsa all’AI Impact Summit in India: “Abbiamo un bisogno urgente di norme o garanzie”. A fargli da eco è stato il ceo di Google DeepMind, Demis Hassabis. I modelli autonomi comportano opportunità ma anche rischi “che forse non avevamo previsto quando li abbiamo progettati”, ha detto a Bloomberg. Per cui, “deve esserci un elemento di cooperazione internazionale, o almeno standard minimi su come queste tecnologie dovrebbero essere implementate”…
ARTICOLO INTEGRALE ORGINALE https://www.huffingtonpost.it/esteri/2026/02/27/news/nel_nome_di_anthropic_oltre_300_dipendenti_di_google_e_openai_chiedono_di_opporsi_al_pentagono-21308451/
Se volete essere aggiornati sulle ultime novità, iscrivetevi al CANALE TELEGRAM https://t.me/NogeoingegneriaNews
DARPA, NSA E PENTAGONO USANO LA SILICON VALLEY PER DOMINARE IL FUTURO
IMPORTANTE!: Il materiale presente in questo sito (ove non ci siano avvisi particolari) può essere copiato e redistribuito, purché venga citata la fonte. NoGeoingegneria non si assume alcuna responsabilità per gli articoli e il materiale ripubblicato.Questo blog non rappresenta una testata giornalistica in quanto viene aggiornato senza alcuna periodicità. Non può pertanto considerarsi un prodotto editoriale ai sensi della legge n. 62 del 7.03.2001.