Dopo il rapporto dell’Hudson Institute citato sopra, arriva ora il rapporto RAND. Entrambi riflettono una visione delle tecnologie e delle strategie internazionali come strumenti di dominio e controllo. Nel linguaggio dei think tank strategici statunitensi, è normale considerare ogni innovazione, sia essa militare, tecnologica o economica, attraverso la lente della competizione per il dominio. Questo ultimo rapporto della RAND Corporation non fa eccezione: tutto ruota attorno al rischio e alla rivalità e, di conseguenza, anche azioni molto aggressive vengono valutate per mantenere o ottenere un vantaggio. L’intelligenza artificiale sta avanzando, l’intelligenza umana non riesce a tenere il passo.
Prestare attenzione ai rischi di instabilità geopolitica nella corsa verso l’Intelligenza Artificiale Generale (AGI)
[Karl P. Mueller]
Mentre l’intelligenza artificiale (IA) avanza rapidamente, molti esperti prevedono che il primo Stato a sviluppare un’Intelligenza Artificiale Generale (AGI), capace di svolgere un’ampia gamma di compiti meglio degli esseri umani, otterrà enormi vantaggi in termini di potere militare ed economico. Se i leader di Stati Uniti e Cina ritengono che perdere la corsa all’AGI rappresenti una minaccia esistenziale per le loro nazioni, come reagiranno se il concorrente strategico sembrerà vicino alla vittoria? O come risponderanno se il proprio Stato riuscisse a sviluppare l’AGI, trovandosi poi di fronte a sfide per mantenere il proprio dominio tecnologico appena acquisito?
L’autore di questo articolo presenta una tipologia delle possibili risposte strategiche, concentrandosi sulle azioni preventive che gli Stati potrebbero adottare per ostacolare lo sviluppo dell’IA da parte degli avversari, e attinge alla storia degli spostamenti di potere geopolitico e della proliferazione nucleare per individuare i principali fattori che potrebbero indurre i leader nazionali a lanciare attacchi preventivi contro i programmi di IA rivali. Le incertezze sulle caratteristiche e sulle implicazioni potenziali dell’AGI potrebbero rendere la pressione per un’azione preventiva particolarmente forte, ma potrebbero anche dissuadere i leader dal correre grandi rischi quando la gravità e l’imminenza del pericolo non sono chiare.
Questa analisi suggerisce che strateghi e decisori dovrebbero considerare con serietà come gli incentivi all’azione preventiva possano rendere il periodo di transizione, prima e dopo l’emergere dell’AGI, particolarmente instabile dal punto di vista geopolitico. Le valutazioni presentate in questo articolo possono costituire un punto di partenza per adottare scelte politiche in grado di gestire i rischi di instabilità internazionale che ne derivano. Download PDF
FONTE https://www.rand.org/pubs/perspectives/PEA3691-12.html
Se volete essere aggiornati sulle ultime novità, iscrivetevi al CANALE TELEGRAM https://t.me/NogeoingegneriaNews
QUESTO POTREBBE ESSERE UNO DEI RAPPORTI PIU’ FOLLI MAI SCRITTI DA UN THINK TANK IMPORTANTE AMERICANO
IMPORTANTE!: Il materiale presente in questo sito (ove non ci siano avvisi particolari) può essere copiato e redistribuito, purché venga citata la fonte. NoGeoingegneria non si assume alcuna responsabilità per gli articoli e il materiale ripubblicato.Questo blog non rappresenta una testata giornalistica in quanto viene aggiornato senza alcuna periodicità. Non può pertanto considerarsi un prodotto editoriale ai sensi della legge n. 62 del 7.03.2001.