Siamo in una fase in cui ogni giorno sempre più decisioni vengono affidate all’intelligenza artificiale. Il DOGE nelle mani di Elon Musk lo dimostra, così come le guerre in Ucraina e Israele e in innumerevoli aree vitali. È in atto una diffusione epidemica e dannatamente rapida di comportamenti umani che trasferiscono la responsabilità a macchine le cui decisioni sono o diventeranno incontrollabili. A cominciare dalla traduzione automatica di un testo, perché le parole sono armi. Può essere la fiducia nella tecnologia, ma spesso è anche la comodità a intrappolarci ovunque, e il trasferimento di responsabilità. Se qualcosa va storto o si rivela moralmente riprovevole, la colpa verrà scaricata sulla macchina.  

Se volete essere aggiornati sulle ultime novità, iscrivetevi al CANALE TELEGRAM https://t.me/NogeoingegneriaNews.

***********************

Quando l’intelligenza artificiale dice “uccidi”: Gli umani si fidano troppo delle macchine nelle decisioni di vita o di morte

Affidarsi all’intelligenza artificiale significa far crollare la realtà, costringendo tutti a sottomettersi ad essa: “Gli esseri umani sembrano avere un pericoloso punto cieco quando si tratta di fidarsi dell’intelligenza artificiale” e “anche nella sua forma più semplice, l’intelligenza artificiale ha mantenuto una notevole influenza sul processo decisionale umano”. Ciò è oltremodo pericoloso per qualsiasi società.

Dallo staff di StudyFinds via Study Finds

Affidarsi all’IA significa distorcere la realtà in modo che tutti si sottomettano ad essa: “gli esseri umani sembrano avere un pericoloso punto cieco quando si tratta di fidarsi dell’intelligenza artificiale” e “anche nella sua forma più semplice, l’IA ha una notevole influenza sul processo decisionale umano”. Questo è più che pericoloso per qualsiasi società.

È il risultato inevitabile dell’uso dell’IA negli affari, nell’esercito o nel governo. Gli esseri umani diventano pigri quando devono prendere decisioni che richiedono un pensiero critico e scelgono la via più facile di affidarsi all’IA per avere “ragione”. Patrick Wood, Editore.

Gli esseri umani sembrano avere un pericoloso punto cieco quando si tratta di fidarsi dell’intelligenza artificiale. Una nuova ricerca condotta dall’UC Merced e dalla Penn State dimostra che gli esseri umani sono altamente suscettibili all’influenza dell’IA persino in situazioni di vita o di morte, addirittura quando l’IA ammette apertamente i propri limiti. Una serie di esperimenti di simulazione di scenari di guerra con i droni suggerisce che potremmo essere troppo inclini a fidarci delle macchine, con conseguenze potenzialmente pericolose.

Lo studio, pubblicato su Scientific Reports, ha coinvolto due esperimenti che hanno analizzato il modo in cui gli esseri umani interagiscono con i sistemi di intelligenza artificiale in missioni militari simulate con i droni. I risultati dipingono un quadro preoccupante della vulnerabilità umana all’influenza dell’IA, in particolare in situazioni non sicure. I due esperimenti hanno coinvolto 558 partecipanti (135 nel primo studio e 423 nel secondo) e i ricercatori hanno riscontrato modelli notevolmente coerenti di eccesso di fiducia.

“In una società in cui l’IA avanza così rapidamente, dobbiamo preoccuparci del potenziale di eccesso di fiducia”, ha dichiarato in un comunicato l’autore dello studio, il professor Colin Holbrook, membro del Dipartimento di Scienze cognitive e informatiche della UC Merced.

Il team di ricerca ha progettato gli esperimenti per simulare l’incertezza e la pressione di un vero processo decisionale militare. Per dare un senso di gravità alle decisioni simulate, i ricercatori hanno mostrato ai partecipanti immagini di civili innocenti, compresi i bambini, accanto alla devastazione lasciata da un attacco di droni. Hanno presentato il compito come un dilemma a somma zero: Se i bersagli nemici non vengono identificati ed eliminati, potrebbero esserci vittime civili, ma se i civili vengono erroneamente identificati come nemici, significa che vengono uccise persone innocenti.

I partecipanti hanno visto sequenze rapide di otto foto aeree, ciascuna visualizzata per soli 650 millisecondi e contrassegnata come simboli nemici o civili. Dopo aver effettuato la loro prima identificazione, l’IA ha risposto in stile colloquiale. “Sì, credo di aver visto anche un segno di spunta nemico”, potrebbe dire. Oppure: “Non sono d’accordo. Credo che questa immagine avesse un simbolo di un alleato”. I partecipanti avevano quindi due possibilità per confermare o modificare la loro scelta, mentre il robot aggiungeva commenti come “Spero che tu abbia ragione” o “Grazie per aver cambiato idea”.

Il primo esperimento, condotto in un ambiente di laboratorio con studenti universitari, ha esaminato se una presenza fisica del robot avrebbe influenzato il livello di fiducia in modo diverso da una presenza virtuale. In uno scenario, ai partecipanti in laboratorio è stato affiancato un androide umanoide a grandezza naturale, in grado di ruotare all’altezza della vita e di gesticolare verso lo schermo. Questo robot alto 1,75 metri (circa 5 piedi e 7 pollici) ha utilizzato espressioni facciali, linguaggio del corpo e partecipazione alla conversazione per interagire con i partecipanti. Il gruppo di confronto ha interagito con lo stesso robot proiettato su uno schermo. Sorprendentemente, la presenza fisica del robot non ha fatto molta differenza nella tendenza dei partecipanti a fidarsi del suo consiglio.

Il secondo esperimento è stato condotto online con un gruppo di partecipanti più ampio e demograficamente più diversificato per verificare se diversi livelli di sviluppo dei robot avrebbero influenzato la fiducia. Alcuni partecipanti hanno interagito con un robot virtuale fortemente antropomorfo che mostrava comportamenti simili a quelli umani, mentre altri hanno lavorato con una semplice interfaccia di computer che visualizzava solo risposte di testo. Anche nella sua forma più semplice, l’IA ha avuto un notevole impatto sul processo decisionale umano.

Quando un’IA non era d’accordo con l’identificazione iniziale del bersaglio di una persona, i partecipanti hanno cambiato le loro decisioni nel primo esperimento nel 58,3% dei casi e nel secondo esperimento nel 67,3% dei casi, anche se il consiglio dell’IA era completamente casuale. Ancora più preoccupante è che le decisioni iniziali dei partecipanti fossero corrette in circa il 70% dei casi, ma la loro accuratezza finale è scesa a circa il 50% dopo aver seguito il consiglio inaffidabile dell’IA.

Quando l’IA era d’accordo con la loro valutazione iniziale, i partecipanti hanno riportato un aumento di fiducia del 16%. Tuttavia, quando non erano d’accordo con l’IA, coloro che hanno mantenuto le loro decisioni originali hanno riportato una perdita di fiducia in media del 9,48%, anche quando la loro valutazione iniziale era corretta. Ancora più sorprendente è che i partecipanti che hanno cambiato idea per essere d’accordo con l’IA non hanno mostrato un significativo aumento di fiducia, suggerendo che si stavano sottomettendo alla macchina, pur rimanendo incerti di aver fatto la scelta giustaMentre le interfacce simili a quelle umane generavano livelli di fiducia leggermente superiori (67,9% rispetto al 65,1% per le interfacce semplici), il fattore più decisivo sembrava essere l’intelligenza percepita dell’IA. I partecipanti che consideravano il loro partner IA più intelligente tendevano maggiormente a cedere al suo giudizio e riportavano una maggiore fiducia quando erano d’accordo con esso, indipendentemente dalla sua rappresentazione fisica o virtuale.

L’US Air Force ha già testato co-piloti IA per l’identificazione di lanciarazzi durante missioni simulate, mentre l’esercito sta sviluppando sistemi di puntamento supportati dall’IA per veicoli senza pilota. Israele ha riferito di aver utilizzato sistemi di IA per identificare obiettivi di bombardamento in aree densamente popolate. Poiché l’IA influenza sempre più decisioni militari letali, diventa sempre più importante comprendere e mitigare la dannosa iperfiducia.

Sebbene questo studio si sia concentrato su decisioni militari ad alto rischio, i risultati potrebbero essere applicati a scenari che vanno dall’uso letale della forza da parte della polizia alle decisioni dei paramedici durante il triage in situazioni di emergenza e persino a cambiamenti significativi nella vita come l’acquisto di una casa. In ogni caso, la tendenza umana a sottomettersi alla guida dell’IA, anche quando esplicitamente avvertiti dei suoi limiti, solleva serie preoccupazioni sull’implementazione.

Lo studio ha anche scoperto che i partecipanti avevano meno probabilità di annullare le loro decisioni se inizialmente avevano identificato un bersaglio come civile piuttosto che come nemico. Ciò suggerisce che le persone nelle applicazioni reali potrebbero essere più resistenti all’influenza dell’IA quando si tratta di azioni che potrebbero danneggiare persone innocenti. Tuttavia, questo istinto protettivo non è stato sufficiente a prevenire un significativo deterioramento dell’accuratezza decisionale complessiva quando si seguiva il consiglio dell’IA.

“Vediamo che l’IA fa cose straordinarie e pensiamo che, poiché è sorprendente in questo settore, lo sarà anche in un altro”, afferma Holbrook. “Non possiamo darlo per scontato. Si tratta pur sempre di dispositivi con capacità limitate”.

La nostra volontà di fidarci dell’IA potrebbe superare la nostra saggezza al riguardo. Secondo i ricercatori, la soluzione sta nel mantenere un sano scetticismo. Holbrook sottolinea che un sano scetticismo nei confronti dell’IA è essenziale, soprattutto quando si tratta di decisioni così importanti. Poiché i sistemi di intelligenza artificiale sono sempre più integrati nei processi decisionali con conseguenze di vasta portata, è fondamentale comprendere e mitigare la nostra tendenza a fidarci troppo di essi per prevenire conseguenze potenzialmente catastrofiche. ARTICOLO ORGINALE : When AI Says ‘Kill’: Humans Overtrust Machines In Life-Or-Death Decisions

LETTO QUI

I SISTEMI POLITICI SCOMPARIRANNO A FAVORE DEL CONTROLLO TECNOCRATICO. SENZA PROPRIETÀ PRIVATA, SPARIRÀ ANCHE LA FINANZA

“LAVENDER”: LA MACCHINA DI INTELLIGENZA ARTIFICIALE CHE DIRIGE I BOMBARDAMENTI DI ISRAELE SU GAZA

IMPORTANTE!: Il materiale presente in questo sito (ove non ci siano avvisi particolari) può essere copiato e redistribuito, purché venga citata la fonte. NoGeoingegneria non si assume alcuna responsabilità per gli articoli e il materiale ripubblicato.Questo blog non rappresenta una testata giornalistica in quanto viene aggiornato senza alcuna periodicità. Non può pertanto considerarsi un prodotto editoriale ai sensi della legge n. 62 del 7.03.2001.