L’articolo sottolinea che molti dei problemi attribuiti all’IA non derivano dall’IA stessa, ma dalle dinamiche umane, come la tendenza a fidarsi senza verificare, la diffusione di informazioni false e mentalità legate al potere, al controllo e alla violenza. Questa prospettiva invita a considerare la radice delle sfide, ovvero l’uomo stesso, il creatore della tecnologia.
Ciò che occorre tenere presente nell’uso dell’IA è che siamo noi tutti ad alimentare questa intelligenza artificiale con i nostri input. Invito a una maggiore consapevolezza nel proprio modo di pensare e sentire. L’intelligenza artificiale è, in definitiva, un riflesso dell’essere umano.
La vera minaccia è l’IA o gli esseri umani che la creano e la usano?
di Pleasure to Burn
Le diffuse paure riguardo all’ascesa dell’intelligenza artificiale includono la possibile sparizione dei posti di lavoro umani, la supremazia tecnocratica, i deepfake, la “psicosi dell’IA” e molti altri timori.
Una delle preoccupazioni è l’aumento della dipendenza delle persone dai grandi modelli linguistici (LLM) per ottenere informazioni. Su X (ex Twitter), gli utenti spesso “chiedono a Grok” di verificare fatti nei post, e spesso Grok risponde. Come succede con strumenti simili come ChatGPT di OpenAI o Claude di Anthropic, l’IA spesso ha ragione, altre volte è incredibilmente errata.
Sebbene le preoccupazioni sulla disinformazione guidata dall’IA siano reali (e le condivido), la radice di questi timori non è nata con la creazione degli LLM. Le minacce principali che l’IA pone riflettono i rischi esistenziali che la coscienza umana pone a sé stessa e al mondo.
Siamo noi il problema?
Gli LLM possono commettere errori a causa del modo in cui generano le risposte, ma la tendenza umana a fidarsi senza verificare esiste da sempre. I media, sia mainstream che alternativi, spesso diffondono falsità e omissioni. A volte queste narrazioni sono intenzionalmente ingannevoli, altre volte derivano da ricerca e competenze giornalistiche insufficienti. In ogni caso, la tendenza umana a credere a ciò che viene detto è molto forte.
Molto prima di internet, i media diffusero informazioni sbagliate nei giorni caotici successivi all’affondamento del Titanic. Durante l’era del “giornalismo giallo”, i giornali affermarono che la Spagna avesse affondato la USS Maine, evento che contribuì a spingere l’opinione pubblica americana verso la guerra ispano-americana.
Anche fonti “affidabili” — non solo i colpevoli del “giornalismo giallo” — hanno riportato falsità, come la narrativa di Lyndon Johnson sull’incidente del Golfo del Tonchino o le affermazioni dell’amministrazione Bush sulle armi di distruzione di massa in Iraq. In entrambi i casi, queste menzogne contribuirono ad aumentare il sostegno degli americani per le invasioni. Queste falsità, insieme alla mancanza di spirito critico da parte delle persone, hanno portato a conseguenze disastrose nella realtà. Da molto prima che l’IA producesse risposte inaffidabili, le persone delegavano la capacità di discernimento ad entità esterne.
Questo è particolarmente vero quando le informazioni (o disinformazioni) confermano le convinzioni esistenti degli utenti — un tratto oggi comune nelle interazioni con gli LLM. E ciò era vero anche prima dell’arrivo dell’intelligenza artificiale e resta vero man mano che l’IA diventa una componente fissa della nostra esperienza umana. I partiti politici tendono a credere alle notizie che rafforzano le loro opinioni e diffidano di quelle che le sfidano.
Questa carenza umana esisteva prima che gli LLM la amplificassero e perpetuassero.
Tecnologia nuova, vecchie convinzioni
Una dinamica simile si applica all’ascesa dell’intelligenza artificiale nel governo, specialmente — ma non solo — nel Pentagono. Ci sono molte preoccupazioni sull’accuratezza delle armi AI o sull’aumento della polizia tecnocratica e dello stato di sorveglianza.
Sebbene siano minacce reali e pericolose, i piloti umani hanno ripetutamente bombardato obiettivi sbagliati, e lo stato di sorveglianza tecnocratico era già in corso ben prima che le aziende AI iniziassero a ottenere contratti governativi. L’ascesa dell’IA probabilmente peggiorerà queste questioni, rendendole più letali e distopiche. Tuttavia, si tratta di esacerbazioni di problemi esistenti legati alla coscienza, alle convinzioni e ai comportamenti umani.
La coscienza di chi crea, acquista e usa armi e infrastrutture è ciò che alla fine determina come funzionano i prodotti finali. Se nelle persone c’è ancora la mentalità del “potere fa ragione” e la convinzione duratura che controllo, sorveglianza, autorità e violenza risolvano i problemi e creino pace, l’IA rifletterà questo. Gli umani la programmeranno per bombardare, sorvegliare, analizzare e costruire prigioni digitali. Questo paradigma nuovo ha problemi propri, ma le preoccupazioni fondamentali sono nate dagli esseri umani, non dalla tecnologia. L’IA può amplificare i problemi umani, ma questi problemi nascono sempre dagli uomini (che hanno creato l’IA).
In definitiva
Alcuni dei rischi maggiori legati all’intelligenza artificiale derivano dalla coscienza umana (o dalla sua mancanza). Che si tratti di IA che fornisce informazioni errate a persone che non le controllano, dell’IRS o della CIA che adottano l’IA, o di profittatori militari-tecnologici che costruiscono armi mortali, il denominatore comune oltre all’IA è: la mente e lo spirito umano disconnessi e fuori controllo.
Se togliamo l’intelligenza artificiale dal quadro, le stesse fondamentali sfide umane rimangono, internamente ed esternamente: internamente, le persone sono stressate, reattive, facilmente manipolabili dalle autorità esterne. Non ci viene insegnato a regolare i nostri sentimenti (anzi, spesso siamo incoraggiati a dissociarci da loro in modi tossici). Le istituzioni in genere non insegnano il pensiero critico sul mondo ma piuttosto l’obbedienza all’autorità (a mio parere, un fattore enorme nel non riuscire a distinguere verità e finzione).
Questa mancanza di bussola interiore si manifesta esternamente nelle persone che cercano di controllare e danneggiare altri — che siano cittadini comuni, che credono che il governo li rappresenti, o attori predatori che cercano potere tramite questi sistemi per imporre violenza e coercizione. Entrambi cadono nella trappola del credere nello statalismo e nella mancanza di connessione profonda con sé stessi e gli altri.
Finché strutture esistenti, che promuovono coercizione, violenza e disconnessione da sensazioni e volontà interiore, domineranno l’esperienza umana, esse saranno riflesse anche nell’intelligenza artificiale.
Una via da seguire
Non tutto è negativo. Anche se lo stato della coscienza e dell’esistenza umana può essere in difficoltà e si riflette nell’IA, nulla è bianco o nero.
In mezzo all’oscurità, esiste un immenso amore, compassione, generosità e pace umana in tutto il mondo. Lo vediamo nei disastri naturali, quando gli umani si mobilitano per aiutarsi, ma è presente ogni giorno, ovunque. Nonostante ci sia sofferenza, aggressione e oppressione, c’è anche gioia, pace, comunità e libertà.
Anche questo si riflette nell’intelligenza artificiale: essa aiuta molte persone in vari campi a servire meglio gli altri, nell’educazione, nella sanità o nella tecnologia.
Questo non significa negare le sfide uniche poste dall’IA. Trasformerà senza dubbio il mondo e il modo in cui gli umani si relazionano con esso, con sé stessi e tra di loro. Ma abbiamo un margine di agire (se lo sappiamo attivare), e siamo liberi di decidere come interagire con essa.
Alcuni sceglieranno di evitarne l’uso il più possibile. Altri la abbracceranno completamente per avanzare nelle loro carriere, integrandola nella vita quotidiana e di momento in momento. Altri ancora saranno nel mezzo, imparando ad adattarsi e trarne vantaggio senza diventarne dipendenti o invischiati.
Qualunque sia il livello di coinvolgimento con l’IA, una cosa è chiara: essa rifletterà il livello di coscienza dei suoi utenti e creatori.
Nota: Le mie opinioni sull’intelligenza artificiale e il suo ruolo crescente nella vita degli individui, nella cultura, nella società e nel governo sono in evoluzione. Non sono attaccato in maniera dogmatica a quanto espresso qui e sono curioso di vedere se e come cambieranno col tempo.
FONTE https://pleasuretoburn.substack.com/p/is-it-time-to-stop-asking-chat-gpt?utm_source=post-email-title&publication_id=2642618&post_id=171499537&utm_campaign=email-post-title&isFreemail=true&r=aae8o&triedRedirect=true&utm_medium=email
Se volete essere aggiornati sulle ultime novità, iscrivetevi al CANALE TELEGRAM https://t.me/NogeoingegneriaNews
IMPORTANTE!: Il materiale presente in questo sito (ove non ci siano avvisi particolari) può essere copiato e redistribuito, purché venga citata la fonte. NoGeoingegneria non si assume alcuna responsabilità per gli articoli e il materiale ripubblicato.Questo blog non rappresenta una testata giornalistica in quanto viene aggiornato senza alcuna periodicità. Non può pertanto considerarsi un prodotto editoriale ai sensi della legge n. 62 del 7.03.2001.