Artemis II, quando l’AI è peggio dei complottisti: ChatGPT e Grok hanno bollato come false le foto della missione
Diversi utenti hanno chiesto di verificare l’autenticità degli scatti della missione all’intelligenza artificiale, che non si è dimostrata all’altezza (prima di correggersi
Negli ultimi giorni, la Nasa ha pubblicato le prime notevoli foto scattate nell’ambito della missione Artemis II, che ha sorvolato con successo la Luna e ha spinto il suo equipaggio nel punto più lontano mai raggiunto dall’umanità nello spazio.
Lo scetticismo dell’AI sulle foto di Artemis II
A quanto pare però, tutto questo non è stato sufficiente a convincere alcuni dei più popolari chatbot di intelligenza artificiale, come Grok o ChatGPT, che, sollecitati dagli utenti sui social media, hanno sostenuto che quelle immagini fossero false.
Diverse persone hanno sfruttato le risposte dei sistemi AI per tentare di “smascherare” l’agenzia spaziale statunitense e alimentare le proprie narrazioni complottiste facendo leva sulla presunta autorevolezza della tecnologia. A qualche ora di distanza, tuttavia, gli stessi chatbot hanno iniziato a modificare le proprie risposte, confermando l’autenticità delle foto. In molti casi, questo non sembra essere bastato a far desistere le persone che si erano fidate delle prime valutazioni dell’AI, che hanno quindi interpretato il cambio di posizione come un segnale di manipolazione, persistendo nella convinzione che le immagini fossero contraffatte.
I limiti dei chatbot nel fact-checking
L’episodio mostra perché i chatbot non possono essere utilizzati in modo affidabile per la verifica delle informazioni, soprattutto in ambito scientifico. Questi strumenti non sono in grado di stabilire in modo attendibile se un’immagine sia reale o falsa, ma si limitano a fornire la risposta che ritengono più probabile sulla base di schemi già visti, fonti disponibili, bias nell’addestramento e formulazione del prompt. Il loro “verdetto”, insomma, non nasce da un’analisi scientifica, bensì da una previsione statistica basata sul linguaggio.
Quando gli viene chiesto di studiare una foto e decretare se è falsa o meno, un modello di intelligenza artificiale non consulta dati di telemetria, non verifica la posizione reale dell’oggetto e non ne valuta nemmeno l’illuminazione, per non parlare dell’analisi dei metadati o delle corrispondenze visive. Nel caso delle nuove foto della Luna, è possibile che i chatbot non siano stati esposti a immagini simili nella fase di training e abbiano quindi concluso, con incrollabile sicurezza, che quelle diffuse dalla Nasa fossero false. Ma quando, qualche ora dopo, la rete si è riempita di articoli, post e conferme ufficiali della Nasa, le AI hanno potuto basare il proprio output sulle informazioni che nel frattempo erano diventate pubblicamente disponibili.
Studi recenti avvertono che, per come sono configurati oggi, i chatbot di AI generativa possono rafforzare i pregiudizi degli utenti fornendo risposte che finiscono per corroborare ciò di cui erano già convinti. In numerose occasioni, i sistemi come Grok o ChatGPT sono stati oggetto di critiche per via delle cosiddette allucinazioni o di contenuti problematici (per citare uno dei molti casi, Grok era addirittura arrivato a negare l’Olocausto prima di essere corretto). Senza contare le segnalazioni da parte di alcune autorità sanitarie su un aumento dei ricoveri psichiatrici a seguito di sessioni prolungate con i chatbot.
La Nasa ha già pubblicato diverse immagini ufficiali scattate dagli astronauti di Artemis II, che sui social sono state poi riprese da molti account ufficiali come quello della Casa Bianca. Ciononostante, lo scetticismo spinge ancora alcuni utenti a chiedere a Grok se quelle foto siano vere. Probabilmente non per ricevere una risposta corretta, ma per sentirsi ribadire ciò che già pensano.
Questo articolo è apparso originariamente su Wired en Español.
FONTE https://www.wired.it/article/artemis-ii-foto-chatgpt-e-grok-le-hanno-bollato-come-false/
Se volete essere aggiornati sulle ultime novità, iscrivetevi al CANALE TELEGRAM https://t.me/NogeoingegneriaNews
Meryll Nass è una di quegli che pensa che si tratti di una vera truffa. “Un’altra bugia gratuita”
IMPORTANTE!: Il materiale presente in questo sito (ove non ci siano avvisi particolari) può essere copiato e redistribuito, purché venga citata la fonte. NoGeoingegneria non si assume alcuna responsabilità per gli articoli e il materiale ripubblicato.Questo blog non rappresenta una testata giornalistica in quanto viene aggiornato senza alcuna periodicità. Non può pertanto considerarsi un prodotto editoriale ai sensi della legge n. 62 del 7.03.2001.

