“Lei è l’uomo che ha dato loro il potere di distruggere sé stessi. E il mondo non è pronto”, Niels Bohr nel film Oppenheimer.
OpenAI ha dichiarato lo scorso luglio, con Sutskever e Leike al timone.
“La superintelligenza sarà la tecnologia di maggior impatto che l’umanità abbia mai inventato e potrebbe aiutarci a risolvere molti dei problemi più importanti del mondo …Ma il grande potere della superintelligenza potrebbe anche essere molto pericoloso, e potrebbe portare all’esautorazione dell’umanità o addirittura all’estinzione umana”. VEDI QUI
Intelligenza artificiale, il ritorno di “Oppenheimer”
Jan Leike, ex-responsabile della sicurezza di OpenAI, si è dimesso. Ecco la sua lettera di addio, pubblicata su X.
“Ieri è stato il mio ultimo giorno come capo dell’allineamento, leader del super-allineamento e dirigente di OpenAI. È stato un viaggio incredibile negli ultimi 3 anni. Il mio team ha lanciato il primo LLM RLHF con InstructGPT, ha pubblicato la prima supervisione scalabile sugli LLM, ha pionierizzato l’interpretabilità automatizzata e la generalizzazione da debole a forte. Presto usciranno altre cose emozionanti. Sono così grato per le tante persone straordinarie con cui ho avuto il privilegio di lavorare, sia all’interno che all’esterno del team di super-allineamento. OpenAI ha un talento eccezionalmente intelligente, gentile ed efficace.
Lasciare questo lavoro è stata una delle decisioni più difficili che abbia mai preso, perché abbiamo urgentemente bisogno di capire come indirizzare e controllare sistemi di intelligenza artificiale molto più intelligenti di noi. Mi sono unito a OpenAI perché pensavo che sarebbe stato il miglior posto al mondo per fare questa ricerca. Tuttavia, sono stato in disaccordo con la leadership di OpenAI sulle priorità fondamentali dell’azienda per un bel po’ di tempo, fino a quando non siamo arrivati a un punto di rottura.
Credo che molto più del nostro tempo e delle nostre risorse dovrebbero essere dedicati a prepararci per le prossime generazioni di modelli, alla sicurezza, al monitoraggio, alla preparazione, alla robustezza contro gli attacchi, al super-allineamento, alla riservatezza, all’impatto sociale e ad argomenti correlati. Questi problemi sono piuttosto difficili da risolvere e sono preoccupato che non siamo sulla strada giusta per riuscirci.
Negli ultimi mesi il mio team ha navigato controvento. A volte lottavamo per ottenere risorse di calcolo e diventava sempre più difficile portare avanti questa ricerca cruciale. Costruire macchine più intelligenti degli esseri umani è un’impresa intrinsecamente pericolosa. OpenAI si assume una responsabilità enorme a nome di tutta l’umanità.
Ma negli ultimi anni, la cultura e i processi di sicurezza hanno ceduto il passo alla priorità di avere prodotti sempre più brillanti. Siamo molto in ritardo nel prendere incredibilmente sul serio le implicazioni dell’AGI (intelligenza artificiale generale). Dobbiamo prioritizzare la preparazione per queste sfide al meglio delle nostre capacità. Solo allora possiamo garantire che l’AGI benefici tutta l’umanità. OpenAI deve diventare un’azienda di AGI che mette la sicurezza al primo posto.
A tutti i dipendenti di OpenAI, voglio dire: Imparate a percepire l’AGI. Agite con la gravitas appropriata per ciò che state costruendo. Credo che possiate “realizzare” il cambiamento culturale necessario. Conto su di voi.”
Le dimissioni di Leike sono arrivate alla fine della settimana in cui OpenAI ha lanciato GLT 4o, la sua versione più potente di sempre (vedi articolo https://www.varesenews.it/2024/05/gpt-4o-rivoluzione-nelleducazione-e-nella-comunicazione-interpersonale/1934979/).
Il clamore del lancio è offuscato da questa uscita altrettanto clamorosa e ci induce ad alcune considerazioni sulla gestione di questo cambiamento trasformativo per la nostra epoca.
General
1. Trasformazione e integrazione educativa. GPT-4o offre tutoraggio personalizzato in formati testuali, audio e visivi in tempo reale, presentando un cambiamento significativo nei metodi educativi. Le scuole e le istituzioni devono integrare attentamente questa tecnologia per migliorare l’apprendimento senza oscurare le pratiche educative tradizionali. L’obiettivo è arricchire l’esperienza educativa, garantendo che l’AI serva come strumento di miglioramento piuttosto che come sostituto degli educatori umani.
2. Bilanciamento tra tecnologia e interazione umana. La capacità di GPT-4o di facilitare conversazioni e apprendimento presenta opportunità per arricchire la comunicazione. Tuttavia, gestire l’equilibrio tra interazioni AI e connessioni umane è cruciale. Mentre l’AI può supportare sessioni di brainstorming virtuale e la preparazione a interviste, è essenziale preservare il valore degli incontri faccia a faccia. Le organizzazioni devono sviluppare strategie che incorporino i benefici dell’AI mantenendo l’integrità delle interazioni personali.
3. Affrontare le implicazioni etiche e psicologiche. L’uso crescente dell’intelligenza artificiale come GPT-4o porta le considerazioni etiche e psicologiche in primo piano. Il tempo prolungato davanti agli schermi e la dipendenza dall’IA potrebbero influenzare la capacità di attenzione e la salute mentale. La gestione efficace del cambiamento dovrebbe includere misure per mitigare questi rischi, come promuovere un tempo bilanciato davanti agli schermi e incoraggiare attività in presenza. Inoltre, garantire l’uso etico dell’IA attraverso una gestione sicura dei dati sarà vitale per mantenere la fiducia e proteggere veramente le informazioni personali (privacy).
Solo affrontando questi elementi critici, potremo sfruttare il potenziale di GPT-4o in modo responsabile, aprendo la strada a un futuro equilibrato e innovativo nell’educazione e nella comunicazione.
Questa sfida mi ricorda il film Oppenheimer. Gli ingegneri di ieri sono i “programmatori” di oggi. I rischi sono gli stessi.
“Lei è l’uomo che ha dato loro il potere di distruggere sé stessi. E il mondo non è pronto”, Niels Bohr nel film Oppenheimer.
I robot umanoidi AI che sostituiscono gli esseri umani
sono il prossimo livello di implementazione della tecnocrazia transumanista: “Le 6 migliori aziende di robot umanoidi da prendere in considerazione per il potenziale decollo di una nuova tendenza”.
La visione tecnocratica transumanista è quella di sostituire il 90% della forza lavoro con i robot. In sostanza, non si tratta solo di fondere gli esseri umani con la tecnologia, creando cyborg e poi eliminando gradualmente la parte umana, ma anche di creare robot umanoidi controllati dall’intelligenza artificiale in ogni aspetto della nostra vita. Ciò pone anche la questione di cosa accadrà quando l’IA renderà gli esseri umani troppo primitivi per essere mantenuti in vita. Se la quantità di robot umanoidi prevista è di 100 milioni solo negli Stati Uniti, spero che vi rendiate conto che sono prodotti per sostituire i lavori umani e la loro utilità nella società. Il lavoro umano sarà obsoleto.
Trovate l’articolo completo qui: https://seekingalpha.com/article/4685085-top-6-humanoid-robot-companies-to-consider-as-a-new-trend-potentially-takes-offù
ARTICOLO DEL 2015: In una conferenza sulla tecnologia a Lisbona, Stephen Hawking aveva detto che il potenziale di apprendimento delle AI sia infinito e potrebbe facilmente raggiungere e superare i limiti del cervello umano. Se è vero che i progressi nel campo dell’intelligenza artificiale possono portare benefici incredibili alla società, la linea di confine tra l’aiuto che possiamo ricevere dalla tecnologia e il pericolo che questa ci sfugga di mano è molto sottile. «L’AI potrebbe essere il più grande evento nella storia della nostra civiltà, oppure il peggiore».
ELON MUSK, STEPHEN HAWKING E ALTRI 1000 CONTRO L’INTELLIGENZA ARTIFICIALE MILITARE
Un nuovo rapporto avverte il governo degli Stati Uniti che se i laboratori di intelligenza artificiale perdessero il controllo di sistemi AI sovrumani, potrebbero rappresentare una minaccia di estinzione per la specie umana. L’amministratore delegato di Gladstone AI, Jeremie Harris, coautore del rapporto, si è unito a Power & Politics per discutere dei pericoli legati al rapido avanzamento dei sistemi di intelligenza artificiale.
IMPORTANTE!: Il materiale presente in questo sito (ove non ci siano avvisi particolari) può essere copiato e redistribuito, purché venga citata la fonte. NoGeoingegneria non si assume alcuna responsabilità per gli articoli e il materiale ripubblicato.Questo blog non rappresenta una testata giornalistica in quanto viene aggiornato senza alcuna periodicità. Non può pertanto considerarsi un prodotto editoriale ai sensi della legge n. 62 del 7.03.2001.