In un test per esplorare il suo comportamento di fronte a ordini contrari, l’intelligenza artificiale ha identificato che l’operatore stava ostacolando la sua missione e ha deciso di eliminarlo.
Un drone militare gestito dall’intelligenza artificiale (AI) negli Stati Uniti è diventato un ladro e ha ucciso il suo ipotetico operatore umano durante un finto test, al fine di completare la sua missione se la persona gli avesse dato un ordine negativo, come riportato dal capo delle operazioni AI delle Forze Armate, il colonnello Tucker Hamilton.
Quanto sopra è stato rivelato durante il Future Combat Air and Space Capabilities Summit, tenutosi a Londra, dove Hamilton Ha approfondito i vantaggi e gli svantaggi di un sistema d’arma autonomo in cui interviene un essere umano, incaricato di ordinare l’ultimo “sì” o “no” prima di un attacco.
Ha detto anche quello questa IA ha creato “strategie altamente inaspettate per raggiungere il suo obiettivo”, inclusi attacchi contro personale e infrastrutture statunitensi, questo secondo il sito web dell’organizzazione della Royal Aeronautical Society.
“Lo stavamo addestrando per identificare e prendere di mira una minaccia missilistica terra-aria (SAM). E poi l’operatore diceva, ‘sì, elimina.’ Il sistema iniziò a rendersi conto che anche se la minaccia veniva talvolta identificata, l’operatore umano gli avrebbe detto di non attaccare, ma il sistema avrebbe ottenuto punti se lo avesse fatto. Quindi cosa ha fatto? Ha ucciso l’operatore. Ha ucciso l’operatore perché quella persona gli ha impedito di raggiungere il suo obiettivo”, Hamilton ha detto, secondo il post sul suddetto sito.
Ha continuato spiegando: “Abbiamo addestrato il sistema dicendo: ‘Ehi, non uccidere l’operatore, è brutto. Perderai punti se lo fai.’ Quindi cosa ha fatto? Ha distrutto la torre di comunicazione che l’operatore utilizzava per comunicare con il drone e impedirgli di uccidere il bersaglio”.
FONTE https://it.eseuro.com/internazionale/363352.html
Se volete essere aggiornati sulle ultime novità, iscrivetevi al CANALE TELEGRAM https://t.me/NogeoingegneriaNews.
AGGIORNAMENTO
L’aeronautica militare statunitense nega di aver eseguito una simulazione in cui un drone AI ha “ucciso” un operatore. La smentita fa seguito alla dichiarazione del colonnello secondo cui il drone avrebbe usato “strategie altamente inaspettate per raggiungere il suo obiettivo” nel test virtuale.
Quindi da appropfondire https://www.theguardian.com/us-news/2023/jun/01/us-military-drone-ai-killed-operator-simulated-test?fbclid=IwAR2ojEeapC8fkng6GpmoI_iVNNmVneKbWbs50RJUqSmqyyj2MjMbAhHdUtw
IMPORTANTE!: Il materiale presente in questo sito (ove non ci siano avvisi particolari) può essere copiato e redistribuito, purché venga citata la fonte. NoGeoingegneria non si assume alcuna responsabilità per gli articoli e il materiale ripubblicato.Questo blog non rappresenta una testata giornalistica in quanto viene aggiornato senza alcuna periodicità. Non può pertanto considerarsi un prodotto editoriale ai sensi della legge n. 62 del 7.03.2001.