Lo storico Yuval Noah Harari ha dichiarato al Vertice globale delle Nazioni Unite sull’AI for Good: “Man mano che impariamo a usare l’AI, essa impara a usare noi” e dovremmo rallentare il suo utilizzo, non il suo sviluppo.
Intervenendo giovedì al vertice globale AI for Good dell’Unione Internazionale delle Telecomunicazioni (ITU) delle Nazioni Unite sul tema “Guardrails for Safe and Responsible AI”, Harari ha sostenuto che l’IA dovrebbe continuare a essere sviluppata, ma non dovrebbe essere utilizzata senza controlli e regolamenti di sicurezza.
” Mentre impariamo a usare l’IA, essa impara a usare noi”, ha detto Harari, aggiungendo: “È molto difficile fermare lo sviluppo [dell’IA] perché abbiamo questa mentalità di corsa agli armamenti. Le persone sono consapevoli – alcune di loro – dei pericoli, ma non vogliono rimanere indietro”.
“Ma la cosa davvero cruciale, e questa è la buona notizia, è rallentare la diffusione, non lo sviluppo”, ha aggiunto.
Lo storico ha paragonato lo sviluppo dell’intelligenza artificiale a un virus in laboratorio, dicendo che va bene svilupparlo, ma non diffonderlo in pubblico.
“È come avere un virus molto pericoloso in laboratorio, ma non rilasciarlo al pubblico; va bene così”…Yuval Noah Harari, AI for Good Global Summit, 2023
“Si può avere uno strumento di intelligenza artificiale estremamente sofisticato nel proprio laboratorio, purché non lo si usi in pubblico. Questo è meno pericoloso”, ha detto Harari.
“È come avere un virus molto pericoloso in laboratorio ma non rilasciarlo al pubblico. C’è un margine di sicurezza”.
Proprio come le aziende farmaceutiche e le case automobilistiche devono superare test di sicurezza, lo stesso dovrebbe valere per l’IA, ha detto Harari.
A proposito dei deepfake e dei bot generati dall’intelligenza artificiale, Harari ha dichiarato: “Ora, per la prima volta nella storia, è possibile creare esseri umani falsi – miliardi di esseri umani falsi – in modo da interagire con qualcuno online senza sapere se si tratta di un vero essere umano o di un bot”. Yuval Noah Harari, AI for Good Global Summit, 2023
“Tra un anno sarà probabilmente quasi impossibile sapere se si sta parlando con un deepfake o con un vero umano”, ha dichiarato.
“Se si permette che questo accada, farà alla società quello che il denaro contraffatto minaccia di fare al sistema finanziario”.
“Dovremmo comprendere meglio il suo [dell’IA] potenziale impatto sulla società, sulla cultura, sulla psicologia e sull’economia mondiale prima di impiegarla nello spazio pubblico”...Yuval Noah Harari, AI for Good Global Summit, 2023
Lo storico ha aggiunto: “Se non si può sapere chi è una persona vera e chi è una persona falsa, la fiducia crollerà e con essa almeno la società libera. Forse le dittature ce la faranno in qualche modo, ma non le democrazie”.
Harari ha chiarito che la creazione di persone false va bene purché siano etichettate come tali e non spacciate per vere: “Devo sapere se è una persona vera o no”, ha detto.
L’Unione Internazionale delle Telecomunicazioni è l’agenzia specializzata delle Nazioni Unite per le tecnologie dell’informazione e della comunicazione (TIC).
Harari è intervenuto più volte agli incontri annuali del World Economic Forum (WEF) di Davos, dove ha dichiarato: “Noi esseri umani dovremmo abituarci all’idea che non siamo più anime misteriose; ora siamo animali hackerabili”.
Parlando al WEF 2020, Harari ha dichiarato: “Per hackerare gli esseri umani, sono necessarie molte conoscenze biologiche, molta potenza di calcolo e, soprattutto, molti dati.
“Se avete abbastanza dati su di me, abbastanza potenza di calcolo e conoscenze biologiche, potete hackerare il mio corpo, il mio cervello, la mia vita. Puoi arrivare a conoscermi meglio di quanto io conosca me stesso”.
Questo potere di hackerare le persone, ha detto Harari, “può ovviamente essere usato per scopi positivi, come una sanità molto migliore, ma se questo potere cade nelle mani di uno Stalin del XXI secolo, il risultato sarà il peggior regime totalitario nella storia dell’umanità, e abbiamo già un certo numero di candidati per il lavoro di Stalin del XXI secolo”
“Dovremmo regolamentare l’IA solo se vediamo che si verificano effettivamente danni significativi, non scenari immaginari”.
Michael Schwarz, Vertice sulla crescita del WEF, 2023
In occasione del WEF Growth Summit 2023, Michael Schwarz è intervenuto in un panel su “Growth Hotspots: Harnessing the generative AI revolution”, Michael Schwarz di Microsoft ha sostenuto che è meglio non regolamentare l’IA finché non accade qualcosa di negativo, per non sopprimere i benefici potenzialmente maggiori.
“Sono abbastanza sicuro che l’IA sarà utilizzata da attori scorretti; e sì, farà danni reali; e sì, dobbiamo essere molto attenti e molto vigili”, ha detto Schwarz al panel del WEF.
Alla domanda sulla regolamentazione dell’IA generativa, il capo economista di Microsoft ha risposto:
“Quale dovrebbe essere la nostra filosofia sulla regolamentazione dell’IA? È chiaro che dobbiamo regolamentarla e credo che la mia filosofia sia molto semplice.
“Dovremmo regolamentare l’IA in modo da non buttare via il bambino con l’acqua sporca.
“Penso quindi che la regolamentazione non debba basarsi su principi astratti.
“Come economista, mi piace l’efficienza, quindi dovremmo regolamentare l’IA solo quando vediamo che si verificano effettivamente danni significativi, non solo scenari immaginari”.
Il 23 gennaio 2023, Microsoft ha rinnovato la sua partnership con OpenAI – gli sviluppatori di ChatGPT – investendo altri 10 miliardi di dollari oltre al miliardo di dollari che Microsoft ha investito in OpenAI nel 2019 e un altro giro nel 2021, come riporta Bloomberg.
Traduzione a cura di Nogeoingegneria
FONTE (pagina integrale): ‘WHILE WE ARE LEARNING TO USE AI, IT IS LEARNING TO USE US’: YUVAL HARARI TO UN AI FOR GOOD SUMMIT
HOMO DEUS: STIAMO PER ENTRARE IN UN’ERA POST-NATURA E POST-UOMO
IMPORTANTE!: Il materiale presente in questo sito (ove non ci siano avvisi particolari) può essere copiato e redistribuito, purché venga citata la fonte. NoGeoingegneria non si assume alcuna responsabilità per gli articoli e il materiale ripubblicato.Questo blog non rappresenta una testata giornalistica in quanto viene aggiornato senza alcuna periodicità. Non può pertanto considerarsi un prodotto editoriale ai sensi della legge n. 62 del 7.03.2001.