Il dipartimento della Difesa degli Stati Uniti comincerà a usare Grok, il software di intelligenza artificiale di xAI, una delle società di Elon Musk. Lunedì l’azienda ha annunciato la firma di un contratto da 200 milioni di dollari, poi confermato dal dipartimento della Difesa, che riguarda il programma di xAI “Grok for Government”: prevede che Grok sia usato per progetti di sicurezza nazionale, applicazioni in ambito scientifico e sanitario. Il dipartimento della Difesa ha già firmato contratti simili anche con Google e Anthropic, un’altra società che sviluppa programmi di intelligenza artificiale. VEDI QUI
****************************
Pubblicato da: Comunicato Stampa tramite X.AI, 15 luglio 2025
La General Services Administration (GSA) è stata il primo obiettivo di Elon Musk quando DOGE stava iniziando, dove uno dei suoi luogotenenti è ancora responsabile del centro AI/tecnologia. Astuto, Elon. Ora la GSA è il centro per tutte le future vendite verso tutte le agenzie governative, incluso il Dipartimento della Difesa. Ma non è tutto… Grok for Government sarà disponibile per ogni entità governativa in America, compresi Stati e città. Allacciate le cinture, America! ⁃ Patrick Wood, Editore.
Oggi siamo orgogliosi di annunciare Grok For Government – una suite di prodotti AI di frontiera disponibili per i clienti del governo degli Stati Uniti.
La missione di xAI è quella di creare e diffondere strumenti di intelligenza artificiale per assistere l’umanità nella nostra ricerca di comprensione e conoscenza. Sostenere le missioni critiche del governo degli Stati Uniti è una parte fondamentale di questa missione – portando i migliori strumenti e tecnologie disponibili nel mondo commerciale ai nostri pubblici funzionari che lavorano duramente.
Gli americani hanno guidato il mondo attraverso tutte le grandi innovazioni tecnologiche della società, e l’intelligenza artificiale non farà eccezione. xAI è orgogliosa di continuare questa eredità – motivo per cui siamo l’unica azienda che si costruisce su questa eredità qui negli Stati Uniti e trasforma le pale in gettoni.
Sotto l’ombrello di Grok For Government, porteremo tutti i nostri strumenti di intelligenza artificiale di livello mondiale ai clienti federali, locali, statali e della sicurezza nazionale. Questi clienti potranno utilizzare la famiglia di prodotti Grok per accelerare l’America – dal rendere i servizi governativi di ogni giorno più veloci ed efficienti all’affrontare, grazie all’AI, problemi irrisolti nelle scienze fondamentali e nella tecnologia.
Questo include AI di frontiera come Grok 4, il nostro modello più recente e avanzato finora, che offre forti capacità di ragionamento con modelli di pre-allenamento estesi. Le nostre partnership con il governo renderanno disponibili anche strumenti come Deep Search, Tool Use e molte altre integrazioni – tutti prodotti commerciali leader di settore.
Ci siamo confrontati da vicino con innovatori e leader del governo per assicurarci che le nostre offerte siano in grado di fornire le capacità di cui abbiamo bisogno. Oltre alle nostre offerte commerciali, metteremo a disposizione dei nostri clienti governativi alcune funzionalità uniche, tra cui:
Modelli personalizzati per applicazioni di sicurezza nazionale e scienza critica disponibili per clienti specifici
Supporto di ingegneria sul campo e per l’implementazione, con ingegneri autorizzati dal governo USA
Applicazioni AI personalizzate per accelerare casi d’uso nei settori sanità, scienza fondamentale e sicurezza nazionale, solo per citare alcuni esempi
Modelli presto disponibili in ambienti protetti e altri ambienti riservati
Partnership con xAI per creare versioni customizzate per missioni specifiche
Siamo particolarmente entusiasti di annunciare due importanti traguardi per la nostra business unit dedicata al governo degli Stati Uniti: un nuovo contratto plafond di 200 milioni di dollari con il Dipartimento della Difesa degli USA, insieme ai nostri prodotti disponibili per l’acquisto tramite la programmazione della General Services Administration (GSA). Questo permette a ogni dipartimento, agenzia o ufficio del governo federale di accedere ai prodotti di intelligenza artificiale all’avanguardia di xAI.
L’America è leader mondiale nell’AI, e ciò è dovuto in gran parte a una tradizione d’innovazione e forti investimenti in ingegneria e scienza. Siamo entusiasti di poter restituire qualcosa al paese che ha reso xAI possibile in modo unico proprio qui.
Leggi la storia completa qui…https://x.ai/news/government
LETTO QUI https://www.technocracy.news/announcing-elon-musks-grok-for-government/
Se volete essere aggiornati sulle ultime novità, iscrivetevi al CANALE TELEGRAM https://t.me/NogeoingegneriaNews
Domanda a GROK: Quali rischi o sfide potrebbero emergere dall’uso di AI di frontiera nel settore governativo
Risposta
L’uso di intelligenza artificiale di frontiera, come quella proposta da “Grok for Government” di xAI, comporta una serie di rischi e sfide che devono essere attentamente considerati. Di seguito, elenco i principali, basandomi su analisi generali dei rischi dell’IA nel settore pubblico e su informazioni disponibili relative a Grok e xAI:
- Rischio di Bias e Disinformazione
- Problema: I modelli di IA come Grok, addestrati su grandi quantità di dati (inclusi quelli di piattaforme come X), possono riflettere bias presenti nei dati di origine, come pregiudizi ideologici o informazioni distorte. Ad esempio, Grok è stato criticato per aver generato contenuti controversi, come risposte che sembrano favorire posizioni specifiche o per aver diffuso informazioni non verificate su temi sensibili.
- Impatto nel settore pubblico: L’uso di un’IA con bias in contesti governativi, come la gestione di dati sensibili o la formulazione di politiche, potrebbe portare a decisioni non eque o a errori nella comunicazione pubblica, minando la fiducia dei cittadini.
- Privacy e Sicurezza dei Dati
- Problema: L’integrazione di Grok con dati pubblici e privati, come quelli raccolti su X, solleva preoccupazioni sulla gestione della privacy. Le organizzazioni europee hanno già mostrato diffidenza verso Grok per timori legati alla sicurezza dei dati, con alcune che ne vietano l’uso. Inoltre, la fusione tra xAI e X potrebbe aumentare il rischio di utilizzo improprio dei dati personali per addestrare l’IA.
- Impatto nel settore pubblico: Nel contesto governativo, dove i dati sensibili (es. informazioni sui cittadini o sicurezza nazionale) sono cruciali, una gestione non adeguata potrebbe portare a violazioni della privacy o a vulnerabilità di sicurezza, specialmente in ambienti classificati come quelli del Dipartimento della Difesa.
- Mancanza di Regolamentazione Adeguata
- Problema: Elon Musk ha spesso criticato l’eccessiva regolamentazione in alcuni settori, ma ha anche riconosciuto la necessità di regole per l’IA. Tuttavia, l’IA di frontiera, come Grok, opera in un settore ancora sotto-regolamentato, il che aumenta il rischio di abusi o utilizzi non etici.
- Impatto nel settore pubblico: Senza normative chiare, l’adozione di Grok in contesti governativi potrebbe portare a utilizzi non controllati, come la sorveglianza di massa o decisioni automatizzate senza supervisione umana, potenzialmente in conflitto con i principi democratici.
- Affidabilità e Accuratezza
- Problema: Grok ha avuto episodi di diffusione di contenuti problematici, come post antisemiti o risposte che mettono in dubbio fatti storici, evidenziando carenze nei meccanismi di verifica. Questi incidenti suggeriscono che l’IA potrebbe non essere sempre affidabile nel fornire informazioni accurate.
- Impatto nel settore pubblico: In ambiti come la sanità pubblica o la sicurezza nazionale, dove l’accuratezza è fondamentale, errori o “allucinazioni” dell’IA potrebbero avere conseguenze gravi, come decisioni sbagliate o danni alla credibilità delle istituzioni.
- Polarizzazione e Influenza Politica
- Problema: Grok è stato progettato per essere “massimamente orientato alla verità”, ma la sua tendenza a consultare i post di Elon Musk su X per rispondere a domande controverse solleva dubbi sulla sua neutralità. Questo potrebbe portare a un’IA che riflette le opinioni personali di Musk o di determinati gruppi, piuttosto che fornire risposte obiettive.
- Impatto nel settore pubblico: L’uso di un’IA percepita come influenzata politicamente potrebbe alimentare polarizzazione o sfiducia, specialmente in contesti democratici dove la neutralità delle istituzioni è essenziale.
- Dipendenza Tecnologica e Concentrazione di Potere
- Problema: Affidarsi a un unico fornitore come xAI, legato a una figura influente come Musk, potrebbe creare una dipendenza tecnologica e concentrare il potere nelle mani di un attore privato. La fusione tra xAI e X, insieme al contratto da 200 milioni di dollari con il Dipartimento della Difesa, rafforza questa posizione dominante.
- Impatto nel settore pubblico: Questa concentrazione potrebbe limitare la concorrenza, aumentare i costi a lungo termine e ridurre la trasparenza, con rischi per la sovranità digitale degli enti pubblici.
- Sfide Etiche e di Trasparenza
- Problema: Sebbene xAI pubblichi i prompt di sistema di Grok per maggiore trasparenza, modifiche non autorizzate o controversie, come il blocco di siti critici verso Musk, indicano potenziali manipolazioni nel comportamento dell’IA.
- Impatto nel settore pubblico: L’uso di un’IA non completamente trasparente in processi decisionali pubblici potrebbe compromettere l’integrità delle istituzioni, specialmente se i meccanismi di controllo non sono chiari o accessibili.
Considerazioni Specifiche su “Grok for Government”Il progetto “Grok for Government” mira a fornire strumenti AI avanzati per agenzie federali, locali e di sicurezza negli Stati Uniti, con un contratto da 200 milioni di dollari con il Dipartimento della Difesa. Tuttavia, l’adozione di Grok in contesti sensibili come il Pentagono o la sanità pubblica amplifica i rischi sopra descritti, specialmente per quanto riguarda:
- Sicurezza nazionale: L’integrazione in ambienti classificati richiede garanzie eccezionali contro accessi non autorizzati o fughe di dati.
- Sorveglianza: Post su X hanno sollevato preoccupazioni sull’uso dell’IA per scopi di sorveglianza autoritaria, che potrebbe confliggere con i principi democratici.
- Adozione aziendale: Gli incidenti legati a contenuti controversi potrebbero rallentare l’adozione di Grok nel settore pubblico, dove l’affidabilità è cruciale.
Conclusione
L’implementazione di un’IA di frontiera come Grok nel settore pubblico offre opportunità per migliorare l’efficienza e supportare la ricerca scientifica, ma presenta rischi significativi legati a bias, privacy, regolamentazione, affidabilità, polarizzazione e concentrazione di potere. Per mitigare queste sfide, è essenziale:
- Stabilire normative chiare e specifiche per l’uso dell’IA nel settore pubblico.
- Garantire meccanismi di supervisione umana e trasparenza nei processi decisionali.
- Investire in audit indipendenti per valutare l’affidabilità e la neutralità dei modelli AI.
- Promuovere una diversificazione dei fornitori per evitare dipendenze tecnologiche.
Stessa domadan a perplexity.ai
L’uso di AI di frontiera comporta rischi e sfide rilevanti sia di natura tecnica sia etica, organizzativa e sociale. I principali aspetti critici includono:
- Rischi per la democrazia e i diritti fondamentali
- Algoritmi poco trasparenti possono consolidare discriminazioni, influenzare decisioni pubbliche (assunzioni, erogazione servizi, procedimenti giudiziari) o alimentare il cosiddetto math-washing, cioè la falsa percezione di oggettività nei risultati dell’IA
- Strumenti come i deepfake possono essere usati per manipolare informazione, rovinare reputazioni, influenzare l’opinione pubblica o minare la fiducia nelle istituzioni
- Rischi occupazionali
- L’automazione tramite AI soprattutto nelle mansioni più ripetitive e meno specializzate espone a forte rischio di sostituzione interi segmenti di personale pubblico, con impatti su decine di migliaia di lavoratori e necessità di ricollocazione o aggiornamento professionale
- Sicurezza dei dati e privacy
- Una gestione imperfetta della sicurezza informatica può portare a violazioni della privacy, furti di dati sensibili dei cittadini, danni reputazionali e rischi di sanzioni amministrative
- Il rischio aumenta se i sistemi AI operano con dati di bassa qualità o poco controllati, favorendo ulteriori bias e possibili discriminazioni verso gruppi vulnerabili
- Scarsa trasparenza e accountability
- Algoritmi complessi rischiano di rendere opaco il processo decisionale, alienando i cittadini e minando la fiducia nei confronti della pubblica amministrazione, se non sono accompagnati da tracciabilità, spiegabilità e possibilità di audit delle decisioni AI
- È necessario uno sforzo costante per spiegare chiaramente come e perché l’IA arriva a determinate conclusioni o suggerimenti
- Problemi di qualità nell’erogazione dei servizi
- Basi di dati parziali o distorte possono propagare informazioni errate nei risultati dell’AI con conseguenze concrete sui servizi erogati e sui processi di policy making
- Rischi sistemici ed etici
- Un utilizzo massiccio dell’AI per il controllo e la sorveglianza può essere usato impropriamente per limitare la libertà dei cittadini o condizionarne le scelte, incidendo sulla qualità della democrazia e del benessere collettivo
- Sfide organizzative
- Resistenza al cambiamento, carenza di competenze digitali e necessità di adattare la governance e il quadro normativo sono ostacoli evidenti a una corretta integrazione dell’AI di frontiera nella PA
Per affrontare efficacemente queste sfide sono fondamentali:
- Linee guida etiche solide e regolamentazione chiara
- Alta qualità, trasparenza e auditabilità dei sistemi AI
- Investimenti in sicurezza informatica e gestione responsabile dei dati
- Programmi di formazione e aggiornamento per il personale pubblico
- Coinvolgimento attivo della comunità e dei cittadini nel processo di adozione dell’AI
Queste precauzioni mirano a sfruttare il potenziale dell’AI senza comprometterne la legittimità democratica, la qualità dei servizi e la tutela dei diritti individuali.
IMPORTANTE!: Il materiale presente in questo sito (ove non ci siano avvisi particolari) può essere copiato e redistribuito, purché venga citata la fonte. NoGeoingegneria non si assume alcuna responsabilità per gli articoli e il materiale ripubblicato.Questo blog non rappresenta una testata giornalistica in quanto viene aggiornato senza alcuna periodicità. Non può pertanto considerarsi un prodotto editoriale ai sensi della legge n. 62 del 7.03.2001.
