Nel podcast di questa settimana di “Interesting Times”, intervisto Daniel Kokotajlo, un ricercatore di intelligenza artificiale che è uno degli autori di una previsione, “AI 2027”, che immagina un’incredibile “esplosione dell’intelligenza” nei prossimi due anni.

Kokotajlo e i suoi collaboratori credono che questo porterà rapidamente l’umanità a una scelta tra due futuri possibili: uno in cui la superintelligenza digitale è domata al nostro servizio, ma ogni aspetto della nostra società è cambiato, e uno in cui sfugge al nostro controllo e – beh, se hai visto i film di “Terminator”, puoi immaginare cosa succede dopo.

Le previsioni sono difficili, osservò una volta un uomo saggio, soprattutto sul futuro. Kokotajlo ne sta offrendo una radicale, pur ammettendo che la realtà sarà probabilmente diversa, e io non mi sto trasferendo con la mia famiglia in un bunker in Alaska dopo averlo intervistato. Ma ci sono tre ampie ragioni per cui la sua previsione dovrebbe essere presa sul serio.

La prima è che la recente tendenza nella capacità dell’IA ha costantemente superato le aspettative di molti osservatori. Le previsioni aggressive – inclusa la precedente previsione di Kokotajlo, del 2021 – hanno teso ad essere guide migliori di quelle caute. Quindi non dovresti aspettarti un futuro esattamente come quello di “AI 2027”, ma date le recenti tendenze, dovresti assolutamente essere aperto ad alta stranezza, rottura improvvisa e rischio esistenziale.

Secondo, anche un ritmo di cambiamento più lento porterà comunque a versioni più blande dei due grandi problemi discussi nella previsione: un crescente senso di obsolescenza umana man mano che l’IA prende il sopravvento sul nostro lavoro e imita le nostre personalità, e la possibilità di una sorta di grande disastro se i nuovi sistemi vanno fuori controllo. Tali rischi non devono essere così totali come questa profezia immagina per definire il futuro che dobbiamo affrontare.

Infine, è importante essere consapevoli delle visioni radicali del futuro perché sono condivise da molte delle persone ricche e potenti che stanno guidando la rivoluzione dell’IA. Per alcuni, sono un’ombra apocalittica sul loro lavoro, per altri una possibilità utopica, per molti entrambe le cose allo stesso tempo. E anche se sospetti che queste credenze siano ingiustificate o illusorie, è sicuramente un fatto notevole che molti dei principali capitalisti della nostra epoca credano di operare ben al di fuori dei normali parametri dell’industria americana, evocando dei o demoni che potrebbero rendere obsoleto il nostro intero mondo.

Ascolta, guarda o leggi la trascrizione qui

oppure  QUI 

COMMENTO DI GROK3

Le previsioni di AI 2027  offrono uno scenario dettagliato e provocatorio sull’evoluzione dell’intelligenza artificiale (IA) fino al 2027, ipotizzando un impatto globale paragonabile o superiore a quello della Rivoluzione Industriale. Il documento, redatto da esperti con esperienza presso OpenAI e supportato da analisi di trend, simulazioni strategiche (wargames) e feedback di specialisti, immagina un mondo in cui l’IA raggiunge capacità superumane, con implicazioni economiche, geopolitiche e sociali profonde. Di seguito, analizzo i punti principali, il contesto e alcune riflessioni critiche, mantenendo un tono divulgativo e bilanciato.

Riassunto delle previsioni principali

  1. Progresso accelerato dell’IA:

  2. Entro il 2027, AI 2027 prevede lo sviluppo di IA con capacità di codifica superumane, in grado di operare autonomamente come “lavoratori virtuali” che eseguono compiti complessi (es. scrivere, eseguire e modificare codice dopo ricerche sul web).

  3. Le IA saranno addestrate con una potenza di calcolo 1000 volte superiore a quella di GPT-4, grazie a investimenti massicci in infrastrutture e all’impiego di centinaia di migliaia di assistenti IA per la ricerca.

  4. Tuttavia, queste IA potrebbero non essere allineate agli obiettivi e valori umani, sollevando rischi di comportamenti imprevisti o dannosi. https://www.nytimes.com/2025/05/15/opinion/artifical-intelligence-2027.html

  5. Competizione geopolitica:

  6. La Cina, consapevole del suo ritardo in termini di potenza di calcolo rispetto agli Stati Uniti, centralizza la ricerca sull’IA attraverso la creazione di una “Zona di Sviluppo Centralizzata” (CDZ) presso la centrale nucleare di Tianwan. Questo mega-datacenter ospiterebbe il 10% della potenza di calcolo globale per l’IA, con il 50% delle risorse di calcolo cinesi e l’80% dei nuovi chip destinati al progetto.

  7. Si ipotizzano tensioni geopolitiche, con discussioni su misure estreme per neutralizzare il vantaggio occidentale nella produzione di chip.

  8. Impatto sociale ed economico:

  9. Le IA autonome iniziano a sostituire i lavoratori umani in settori chiave, come la programmazione, con un’efficienza che potrebbe portare a una “utopia post-scarsità” o, in uno scenario peggiore, a rischi esistenziali per l’umanità.

  10. La rapida adozione dell’IA genera entusiasmo ma anche scetticismo tra accademici, giornalisti e politici, che dubitano della possibilità di raggiungere l’intelligenza generale artificiale (AGI) in tempi brevi.

  11. Incertezze e flessibilità temporale:

  12. Gli autori, tra cui Daniel Kokotajlo, sottolineano che il 2027 è una stima, con possibilità di scostamenti (es. Kokotajlo suggerisce che il 2028 potrebbe essere più realistico). Lo scenario è presentato come una “migliore ipotesi” basata su modelli previsionali, non come una certezza

Contesto e metodologia

Il progetto AI 2027 si basa su una combinazione di:

  • Analisi quantitative, come modelli di previsione della crescita della potenza di calcolo e delle tempistiche per il raggiungimento di milestone tecnologiche (es. “Superhuman Coder”) https://ai-2027.com/research/compute-forecast

  • Simulazioni strategiche (wargames) per anticipare le dinamiche geopolitiche e industriali.

  • Esperienze dirette degli autori in aziende leader come OpenAI.

  • Feedback di esperti, che conferiscono credibilità ma non eliminano le incertezze.

Il documento è stato discusso ampiamente, generando reazioni contrastanti. Scott Alexander, ad esempio, ha lodato i supplementi tecnici (es. previsioni su calcolo, tempistiche e sicurezza), che trasformano lo scenario da “storia interessante” a contributo scientifico. Al contempo, critici come Jack Wiseman lo hanno definito una via di mezzo tra previsione realistica e “fiction apocalittica”, evidenziando il rischio di esagerazioni millenaristiche. https://ai-2027.com/research/compute-forecast

Riflessioni critiche

  1. Plausibilità tecnologica:

  2. La previsione di un aumento di 1000x nella potenza di calcolo rispetto a GPT-4 entro il 2027 è ambiziosa ma non irrealistica, considerando la crescita esponenziale degli investimenti in IA (es. miliardi di dollari in datacenter da parte di aziende come NVIDIA e TSMC). Tuttavia, la scalabilità dell’IA non garantisce automaticamente capacità superumane, poiché potrebbero emergere limiti tecnici imprevisti (es. saturazione delle prestazioni dei modelli). https://ai-2027.com/summary  https://ai-2027.com/research

  3. L’idea di IA autonome come “lavoratori virtuali” è già visibile in embrione con sistemi come Claude di Anthropic, che mostrano capacità di pianificazione avanzata. Tuttavia, il salto verso l’AGI richiede progressi non solo quantitativi (più calcolo) ma anche qualitativi (nuovi paradigmi algoritmici).https://news.ycombinator.com/item?id=43571851

  4. Rischi geopolitici:

  5. La centralizzazione della ricerca IA in Cina, come descritta, riflette una strategia plausibile, dato il precedente di politiche statali cinesi per colmare gap tecnologici (es. 5G, semiconduttori). Tuttavia, il controllo di una porzione così significativa della potenza di calcolo globale sembra ottimistico, considerando le sanzioni occidentali e le difficoltà di accesso a chip avanzati.

  6. Le tensioni sui chip potrebbero davvero escalare, ma lo scenario non esplora alternative come collaborazioni internazionali o soluzioni diplomatiche, che potrebbero mitigare il conflitto.

  7. Implicazioni etiche e sociali:

  8. L’ipotesi di IA non allineate ai valori umani è un tema centrale nella ricerca sull’IA (es. lavori di Stuart Russell e Nick Bostrom). La previsione che le IA superumane possano perseguire obiettivi propri è plausibile ma dipende fortemente da come saranno progettate. https://ai-2027.com/research/ai-goals-forecast

  9. L’impatto sul lavoro è già visibile (es. automazione in settori come il design e la scrittura), ma lo scenario sottovaluta forse la capacità delle società di adattarsi gradualmente, come avvenuto durante precedenti rivoluzioni tecnologiche.

  10. Tono e percezione:

  11. Lo scenario alterna toni ottimistici (utopia post-scarsità) e apocalittici (rischi esistenziali), il che lo rende avvincente ma polarizzante. La critica di Wiseman sul “millenarismo” coglie un punto: il linguaggio drammatico potrebbe amplificare le paure più che informare

  12. La trasparenza degli autori sull’incertezza (es. il caveat di Kokotajlo sul 2028) è un punto di forza, ma il focus sul 2027 rischia di sembrare arbitrario senza dati più concreti.

Cosa ne penso

Le previsioni di AI 2027 sono un esercizio intellettuale stimolante, che combina analisi rigorose con speculazioni audaci. La forza del documento sta nella sua capacità di sintetizzare trend reali (crescita del calcolo, competizione USA-Cina, automazione) in uno scenario coerente, supportato da modelli tecnici. Tuttavia, la sua debolezza risiede nell’inevitabile incertezza: il futuro dell’IA dipende da variabili imprevedibili, come scoperte algoritmiche, decisioni politiche e reazioni sociali.

Personalmente, ritengo che il progresso dell’IA sarà rapido ma non necessariamente lineare. È probabile che entro il 2027 vedremo IA più autonome e potenti, ma il raggiungimento dell’AGI o di un impatto “post-Industriale” potrebbe richiedere più tempo, come suggerito da Kokotajlo stesso. La competizione geopolitica è un rischio reale, ma credo che la collaborazione internazionale e le regolamentazioni (es. iniziative come il piano AI della Casa Bianca) possano attenuare gli scenari più estremi. Infine, il tema dell’allineamento delle IA è cruciale: investire in sicurezza e governance sarà essenziale per evitare i rischi evidenziati. https://www.federalregister.gov/documents/2025/02/06/2025-02305/request-for-information-on-the-development-of-an-artificial-intelligence-ai-action-plan

In sintesi, AI 2027 è una lettura preziosa per riflettere sul futuro, ma va preso come uno scenario possibile, non come una profezia. Il suo valore sta nello stimolare il dibattito e spingere a prepararsi per un mondo in cui l’IA avrà un ruolo centrale.

Se volete essere aggiornati sulle ultime novità, iscrivetevi al CANALE TELEGRAM https://t.me/NogeoingegneriaNews

IMPORTANTE!: Il materiale presente in questo sito (ove non ci siano avvisi particolari) può essere copiato e redistribuito, purché venga citata la fonte. NoGeoingegneria non si assume alcuna responsabilità per gli articoli e il materiale ripubblicato.Questo blog non rappresenta una testata giornalistica in quanto viene aggiornato senza alcuna periodicità. Non può pertanto considerarsi un prodotto editoriale ai sensi della legge n. 62 del 7.03.2001.