Qui e altrove si vede che il grande problema dell’intelligenza artificiale è l’uomo, la sua immoralità, i suoi lati oscuri.
I bluff hanno funzionato anche in passato, non per ultimo nel campo della “ricerca sul clima”. Ora le cose vanno ancora “meglio” e tutto succede alla rapidità del diavolo.
Una nota generale che va oltre il bluff: quando un bot vi porta le notizie, i creatori e il modo in cui vengono presentate hanno un ruolo importante..
“Una sola parola in un articolo può fare la differenza, ma se quella parola è mirata a voi, può cambiare il vostro punto di vista o la vostra opinione. Le storie generiche scritte dall’intelligenza artificiale sono già motivo di preoccupazione, ma l’intelligenza artificiale nei motori di ricerca e nei bot vi colpisce in tempo reale con un pregiudizio così sottile che non ve ne accorgerete. Se un ingegnere, un avvocato e un medico pongono la stessa domanda contemporaneamente su computer diversi, otterranno risposte diverse; ognuno di loro può essere indirizzato nella stessa direzione.” Patrick Wood, editore.
La nuova frontiera del bluff scientifico
Luciano Celi
Negli ultimi due anni si è aperta una nuova e poco nobile frontiera nell’uso dell’intelligenza artificiale: la produzione seriale di letters to the editor per le riviste scientifiche. Non si tratta di contributi autentici né di interventi critici fondati, ma di testi generati al volo dai chatbot, progettati per infilarsi tra le maglie del sistema editoriale.
Usare l’IA per pubblicare su riviste scientifiche
Il meccanismo è semplice: le lettere vengono indicizzate come articoli veri e propri, finiscono nei database bibliometrici e permettono a chi le firma di aggiungere una riga altisonante al CV, aggirando del tutto il processo di peer review. L’impennata è brutale. Ricercatori che fino al 2023 non avevano mai scritto una riga si ritrovano improvvisamente a pubblicare decine o centinaia di lettere all’anno, spesso su argomenti tra loro incompatibili, come se fossero esperti universali.
Gli editori vedono arrivare lettere dopo 48 ore dalla pubblicazione degli articoli – tempi che nessun essere umano potrebbe rispettare – piene di citazioni travisate o prese a casaccio, con quel tipico tono “sicuro di sé” dell’IA quando non sa di cosa sta parlando. È un’invasione che rischia di saturare uno spazio nato per la critica scientifica vera, e che oggi si sta trasformando in un canale di autopromozione gonfiato da bozze automatiche. Un fenomeno che se non fosse tragico sarebbe ridicolo: fa sorridere solo in apparenza, perché il colpo alla credibilità del dialogo scientifico è tutt’altro che comico.
Il caso di Chaccour
A darne l’allarme è il «New York Times» e il caso è quello del ricercatore Carlos Chaccour, che dopo aver pubblicato un lavoro sul «New England Journal of Medicine» si è visto recapitare in 48 ore una lettera che pretendeva di “sollevare obiezioni robuste” al suo articolo. Peccato che le critiche citassero due studi come prova… che erano proprio suoi, e che dicevano l’opposto di quanto sosteneva la lettera. A quel punto Chaccour capisce: la lettera è stata scritta da un’IA, che in un campo molto specialistico ha pescato a caso riferimenti, travisandoli completamente.
Indagando, scopre che l’autore è un medico quasi sconosciuto che all’improvviso, dal 2024, ha iniziato a pubblicare decine di lettere all’anno: 84 lettere nel 2025, su 58 argomenti diversi. Nel suo studio più ampio analizza oltre 730.000 lettere dal 2005 e individua un pattern: dal 2023 in poi compaiono centinaia di “autori prolifici” che passano da zero a decine o centinaia di lettere pubblicate in un solo anno. Un autore ha piazzato 243 lettere nel 2025, senza averne mai pubblicata una prima dell’anno precedente.
Gli editori confermano: arrivano lettere troppo velocemente, troppo presto dopo la pubblicazione degli articoli, e firmate da autori che pubblicano nello stesso mese lettere su sei campi diversi (dalla cardiologia all’immunologia), come se fossero esperti in tutto. Chiaramente non lo sono: è l’effetto dei chatbot generativi che “producono su richiesta” lettere plausibili ma spesso infondate.
Il problema è che le lettere all’editore vengono indicizzate nei database bibliometrici esattamente come gli articoli, e per molti ricercatori rappresentano un modo semplice per gonfiare il CV, saltando la peer review. Come ammette l’editor del NEJM, “l’incentivo a barare è alto”.
La diffusione sta esplodendo: la quota di lettere firmate da autori prolifici è passata dal 6% nel 2023 al 22% nel 2025. Gli editori temono che questo comportamento comprometta un meccanismo essenziale del dibattito scientifico, perché le lettere autentiche spesso contengono critiche decisive o osservazioni cruciali.
Le soluzioni?
Nessuna convincente. Smettere di pubblicare lettere sarebbe un disastro. Smettere di indicizzarle, uguale. Per ora, gli editori sono in allarme ma senza una risposta condivisa.
Il punto finale è netto: l’episodio del “Dr. B.S.” fa sorridere, ma il quadro complessivo no. Il fenomeno è “terrificante”, dice Chaccour, perché rischia di degradare l’ecosistema della comunicazione scientifica molto più velocemente di quanto la comunità sia in grado di reagire.
FONTE https://www.saperescienza.it/rubriche/l-opinione-di/la-nuova-frontiera-del-bluff-scientifico-23-12-2025/
Se volete essere aggiornati sulle ultime novità, iscrivetevi al CANALE TELEGRAM https://t.me/NogeoingegneriaNews
FIDATEVI DELLA “SCIENZA”… CHE HA APPENA RITRATTATO 11 000 DOCUMENTI “PEER REVIEWED”
IL CAPITANO DELLA GEOINGEGNERIA: KEN CALDEIRA ‘FA CHIAREZZA’
IMPORTANTE!: Il materiale presente in questo sito (ove non ci siano avvisi particolari) può essere copiato e redistribuito, purché venga citata la fonte. NoGeoingegneria non si assume alcuna responsabilità per gli articoli e il materiale ripubblicato.Questo blog non rappresenta una testata giornalistica in quanto viene aggiornato senza alcuna periodicità. Non può pertanto considerarsi un prodotto editoriale ai sensi della legge n. 62 del 7.03.2001.
