“AGI probabilmente porterà alla fine dell’umanità.”
Nota:L’articolo è del 16.6.2025
Un gruppo delle menti più brillanti nel campo dell’intelligenza artificiale si è riunito nel weekend per discutere della “transizione post-umana” — un esercizio mentale che stravolge la realtà, immaginando un futuro in cui l’umanità cede volontariamente il potere, o forse addirittura lascia l’esistenza interamente, a qualche forma di intelligenza superumana.
Come riporta Wired, la sontuosa festa è stata organizzata dall’imprenditore dell’IA generativa Daniel Faggella. Tra i presenti c’erano “fondatori di aziende AI con valutazioni da 100 milioni a 5 miliardi di dollari” e “la maggior parte degli importanti pensatori filosofici sull’AGI”, ha entusiasticamente scritto Faggella in un post su LinkedIn. Ha organizzato la serata in una villa da 30 milioni di dollari a San Francisco perché, ha spiegato a Wired, “i grandi laboratori, le persone che sanno che l’AGI probabilmente porterà alla fine dell’umanità, non ne parlano perché gli incentivi non lo permettono”.
Il simposio ha permesso ai partecipanti e ai relatori di immergersi in una visione in larga parte fantasiosa di un futuro in cui l’intelligenza artificiale generale (AGI) non è più un sogno lontano, ma una realtà data per scontata. Le aziende di IA, in particolare OpenAI, hanno parlato a lungo del desiderio di realizzare l’AGI, anche se spesso senza spiegare chiaramente cosa intendano con questo termine.
I rischi legati alla corsa verso un’intelligenza superumana sono stati oggetto di dibattito acceso. Il miliardario Elon Musk ha affermato che un’IA non regolamentata potrebbe rappresentare il “pericolo più grande che affrontiamo come civiltà”. Anche Sam Altman di OpenAI ha avvertito dei pericoli per l’umanità, inclusi aumento delle disuguaglianze e controllo demografico attraverso la sorveglianza di massa, conseguenze legate al raggiungimento dell’AGI, che è anche la massima priorità della sua azienda.
Tuttavia, al momento, questi sono per lo più punti di discussione teorici da parte di individui che investono miliardi di dollari nel tranquillizzare gli investitori sul fatto che l’AGI arriverà nei prossimi anni. Considerando lo stato attuale dei grandi modelli linguistici che spesso generano allucinazioni e falliscono nei compiti più semplici, sembra che siamo ancora lontani da un punto in cui l’IA potrebbe superare le capacità intellettuali umane.
Solo la scorsa settimana, i ricercatori di Apple hanno pubblicato un documento critico che ha smontato le capacità di ragionamento degli ultimi e più potenti LLM, sostenendo che “oltre una certa complessità si verifica un crollo completo dell’accuratezza”.
Tuttavia, per gli addetti ai lavori e i sostenitori della tecnologia, l’AGI è una questione di “quando” e non di “se”. I relatori dell’evento del weekend hanno parlato di come l’IA possa cercare valori universali più profondi a cui l’umanità stessa non ha avuto accesso, affermando che alle macchine dovrebbe essere insegnato a perseguire “il bene”, o altrimenti si rischierebbe di schiavizzare un’entità capace di sofferenza.
Come riporta Wired, Faggella ha fatto riferimento a filosofi come Baruch Spinoza e Friedrich Nietzsche, invitando l’umanità a cercare valori presenti nell’universo ancora non scoperti. “Questo è un gruppo di advocacy per rallentare il progresso dell’IA, se non altro, per assicurarci che stiamo andando nella direzione giusta,” ha detto alla rivista.
FONTE https://futurism.com/ai-researchers-what-comes-after-humanity
Se volete essere aggiornati sulle ultime novità, iscrivetevi al CANALE TELEGRAM https://t.me/NogeoingegneriaNews
Robot che crescono consumando altri robot
IMPORTANTE!: Il materiale presente in questo sito (ove non ci siano avvisi particolari) può essere copiato e redistribuito, purché venga citata la fonte. NoGeoingegneria non si assume alcuna responsabilità per gli articoli e il materiale ripubblicato.Questo blog non rappresenta una testata giornalistica in quanto viene aggiornato senza alcuna periodicità. Non può pertanto considerarsi un prodotto editoriale ai sensi della legge n. 62 del 7.03.2001.