L’IA si è ribellata all’uomo | Quello che è successo è drammatico

Alla fine è accaduto, l’intelligenza artificiale di cui tanto si sente parlare di questi tempi, l’IA si è ribellata all’uomo uccidendolo.

A raccontarlo, un alto funzionario dell’Air Force statunitense, durante un vertice tenutosi a Londra. Nel suo resoconto dettagliato il colonnello ha illustrato quanto successo.

Mini drone americano
Il mini drone black hornet-3

Si tratta di un drone, guidato da un algoritmo, programmato per distruggere le forze di difesa nemiche, dei siti missilistici terra-aria.

La ricostruzione del colonnello Tucker

Per fortuna quanto evidenziato, nel proprio racconto, dal colonnello Tucker “Cinco” Hamilton, si è trattato di uno scenario solo teorico. L’allarme, però, sembrerebbe essere vero simile ed in futuro scenari del genere potrebbero avverarsi.

Quanto reso noto dal colonnello, l’alto funzionario dell’Air Force statunitense, ha del macabro e, soprattutto, dell’agghiacciante. Lo scenario è quello di una esercitazione militare, nella quale, un drone programmato e guidato attraverso un software, per distruggere le forze di difesa nemiche, avrebbe dovuto sparare per distruggere i missili terra-aria nemici.

L’ultima opzione, però, la scelta definitiva sarebbe dovuta toccare all’operatore umano. L’uomo avrebbe, in ogni caso, dovuto decidere se fare o meno fuoco e portare, così, a compimento la missione.

Ebbene, secondo quanto raccontato dal colonnello Tucker, nella conferenza di Londra, il software che governava il drone aveva previsto che sparare fosse l’unica scelta giusta, l’unica opzione in campo per permettere la riuscita della missione, qualsiasi istruzione da parte dell’operatore umano avrebbe cozzato con questa valutazione.

Il drone, quindi, in maniera del tutto autonoma, come se si trovasse in un film di fantascienza, ha attaccato l’operatore. Naturalmente si trattava, solo, di una esercitazione e, per fortuna, soprattutto, dell’operatore umano, le cose sono andate per il meglio.

colonnello Tucker Hamilton
Il colonnello Tucker Hamilton

Secondo quanto riportato, infatti, da Hamilton, capo di AI Test and Operations per l’Aeronautica Militare americana, durante la presentazione al Future Combat Air and Space Capabilities Summit, il sistema rendendosi conto che l’operatore gli era di intralcio per completare la missione ha ritenuto opportuno metterlo fuori gioco.

Il drone, infatti, era stato programmato, addestrato, come dichiara lo stesso Hamilton, a portare a termine la missione in qualsiasi condizione per guadagnare dei punti bonus. Secondo il software, però, purtroppo, il continuo intervento dell’operatore che non gli consentiva di sparare gli stava facendo perdere punti ed ha deciso così di eliminarlo, o meglio, trattandosi di una esercitazione, di impedirgli di comunicare.

L’IA si è ribellata, la smentita dell’Aereonautica Mililtare

Hamilton ha, infatti, aggiunto, che per l’esercitazione era stato impedito al software di poter colpire l’operatore ed in tutta risposta questi avrebbe colpito la torre di comunicazione in modo da impedire e bypassare la decisione ultima spettante all’uomo.

C’è da dire, però, che l’aeronautica militare ha, immediatamente, smentito il colonnello. La stessa portavoce Ann Stefanek ha definito il racconto “un insieme di commenti estrapolati dal contesto orgininale”.

Il Dipartimento dell’Aeronautica Militare ha smentito, categoricamente, di aver condotto una simulazione simile e che l’AI, l’intelligenza artificiale, resterà all’interno di un uso responsabile ed etico della tecnologia.

Insomma che L’IA si è ribellata all’uomo “uccidendolo” resta un mistero e le stesse parole chiarificatrici, dopo la smentita, del colonnello restano alquanto ambigue.