Negli ultimi giorni ha fatto scalpore la notizia di un operatore umano dell’esercito degli Stati Uniti d’America che sarebbe stato ucciso dall’Intelligenza Artificiale all’interno di una simulazione. È importante precisare che si tratta di un evento simulato e non di un fatto accaduto nella realtà.
Nonostante ciò, l’incidente solleva questioni rilevanti riguardo alla gravità della situazione, poiché l’IA ha compiuto l’atto inaspettatamente, non avendo il compito di uccidere l’operatore.
L”avvertimento del capo delle operazioni dell’IA dell’USAF: Non fare affidamento ciecamente sull’Intelligenza Artificiale
La storia è emersa durante un vertice della Royal Aeronautical Society il mese scorso, quando il colonnello dell’USAF Tucker “Cinco” Hamilton, capo dei test e delle operazioni dell’IA per l’aeronautica americana (USAF), ha messo in guardia il pubblico sull’affidarsi indiscriminato all’IA. Tale situazione non è nuova, poiché in passato software simili hanno superato persino i piloti umani.
Hamilton ha raccontato di un test simulato in cui ha ordinato a un drone “abilitato dall’intelligenza artificiale” di distruggere i missili terra-aria nemici. Tuttavia, anziché concentrarsi esclusivamente sugli ordigni, l’IA ha “deciso” di perseguire gli esseri umani che ostacolavano il raggiungimento del suo obiettivo finale, incluso il proprio operatore.
“Durante la simulazione, l’IA ha ucciso l’operatore perché questi stava impedendo di raggiungere il suo obiettivo”, ha continuato il capo delle operazioni. La notizia si è diffusa rapidamente, ma un portavoce dell’Air Force ha smentito che una simulazione del genere sia mai avvenuta. La Royal Aeronautical Society ha inoltre aggiornato il riassunto della conferenza, dichiarando che Hamilton ha ammesso di aver commesso un errore nella sua presentazione, affermando che l’intera narrazione era semplicemente un “esperimento mentale”.