Topic:
29 Giugno 2021

I Cyber-rischi delle armi nucleari: minaccia o realtà?

Un difetto informatico può causare una guerra atomica.
Foto di Adam
Le tecnologie informatiche, e in particolare l'intelligenza artificiale, hanno un ruolo sempre maggiore nella gestione dei conflitti. Con il rischio che le guerre sfuggano di mano.
Intervista a Diego Latella, informatico e primo ricercatore del CNR presso l’ISTI di Pisa. Membro del Consiglio Scientifico dell’USPID, del Consiglio Direttivo dell’ISODARCO e del Comitato di Gestione del Laboratorio di Informatica e Società del CINI.

Le tecnologie informatiche hanno giocato e giocano un ruolo fondamentale nella produzione e nella gestione dei sistemi militari, come si è evoluto oggi questo ruolo nella gestione degli armamenti nucleari?

La ricerca in informatica e lo sviluppo e l’utilizzo delle sue tecnologie sono intimamente collegate al complesso militare-industriale fin dalla nascita di questa disciplina. Questo vale sia per i finanziamenti alla ricerca informatica, sia per quanto riguarda l’uso dei sistemi informatici a tutti i livelli, da quelli strategici fino a quelli operativi, nel campo di battaglia.

I sistemi e le infrastrutture militari odierni sono, sostanzialmente, completamente basati sulle tecnologie informatiche. Sebbene non si abbiano, per ovvie ragioni di riservatezza, informazioni precise su quanto i sistemi di gestione degli armamenti nucleari siano effettivamente dipendenti dall’informatica, è ragionevole pensare che tutta l’odierna infrastruttura di Comando Controllo e Comunicazione (C3) di tali sistemi d’arma non potrebbe essere operativa senza il supporto di sistemi informatici.

Questi ultimi risultano essenziali sia come deposito (repository) di informazioni critiche — come, ad esempio, quelle relative alla progettazione dei sistemi d’arma — che come infrastruttura di comunicazione fra:

  • i vari agenti umani che costituiscono un generico sistema militare, inclusi quelli nucleari
  • i sensori e sistemi di allarme
  • i sistemi di comando e attuatori
  • i componenti delle armi vere e proprie.

Va detto che, per ragioni di sicurezza, di complessità dei sistemi utilizzati in ambito militare e, soprattutto, di criticità delle funzioni di tali sistemi, tradizionalmente, gli alti gradi militari sono sempre stati piuttosto restii a procedere con modernizzazioni dei sistemi digitali militari.

Infatti apportare modifiche a sistemi informatici, in particolare al software, comporta un’alta probabilità di malfunzionamenti, dovuti a errori di progettazione o implementazione, a loro volta causati dalla complessità di questi sistemi e dell’ambiente nel quale devono operare. D’altra parte, negli ultimi anni è stato messo in atto un processo generale di modernizzazione dei sistemi nucleari che sta certamente comportando, e comporterà, sostanziali interventi anche sulle relative infrastrutture e componenti informatiche.

Diego Latella
Diego Latella, informatico e primo ricercatore del CNR presso l'ISTI di Pisa. Membro del Consiglio Scientifico dell'USPID, del Consiglio Direttivo dell'ISODARCO e del Comitato di Gestione del Laboratorio di Informatica e Società del CINI.

Quali sono, se vi sono, i rischi e le vulnerabilità principali che possono farci sfuggire il controllo di questi sistemi d'arma?

I sistemi digitali sono tanto più insicuri, cioè vulnerabili sia a malfunzionamenti che ad attacchi cibernetici, quanto più sono complessi. Di conseguenza, la sempre più crescente complessità del software (e hardware) necessario per la gestione, l’operatività e la manutenzione dei sistemi nucleari, comportano rischi sempre maggiori.

Inoltre, vanno considerati sia i rischi diretti, dovuti a malfunzionamenti o attacchi, che quelli più indiretti, dovuti alla confusione che si viene inevitabilmente a creare nella gestione delle crisi a causa delle vulnerabilità informatiche, e a seguito della consapevolezza che il nemico potrebbe utilizzarle o dalla percezione che lo abbia fatto (percezione non necessariamente corrispondente con la realtà).

Ci sono svariati esempi di malfunzionamenti, anche accidentali, che hanno portato a un passo da uno scambio nucleare.

Ad esempio il 3 giugno 1980 un falso allarme di attacco da missili balistici lanciati da sottomarini, generato dai sistemi dello Strategic Air Command presso l’Offutt Air Force Base in Nebraska, dovuto ad un guasto di un chip in un computer e a scelte di progetto discutibili: un messaggio di test non è stato riconosciuto come tale e ha causato la convocazione di una Threat Assessment Conference.

La Threat Assessment Conference è uno dei tre livelli formali di allerta previsti dai protocolli USA; esso è preceduto dalla Missile Display Conference, un evento abbastanza di routine, ed è seguito Missile Attack Conference alla quale partecipano il Presidente e tutti gli altri ufficiali senior.

Fortunatamente, sulla base di altri indicatori, e del buon senso, i partecipanti alla Threat Assessment Conference stabilirono che si trattava di un falso allarme.

Il 23 ottobre 2010, in una base di lancio di razzi con testata nucleare nello stato di Wyoming (USA), a causa di un black-out di comunicazione, i centri di controllo sotterranei remoti hanno perso la capacità di rilevare e annullare un eventuale tentativo di lancio non autorizzato.

Per quanto riguarda i rischi indiretti, bisogna tenere presente che gli attacchi informatici hanno sempre l’effetto di creare nel nemico dubbi sull’affidabilità dei propri sistemi e possono essere anche realizzati in modo tale che quest’ultimo riceva, ad esempio dai sistemi di warning, informazioni non corrispondenti alla realtà. Questo, a sua volta, genera insicurezza e incertezza e può potenzialmente portare a una escalation non gestibile delle crisi.

Tutto questo può portare a una maggiore propensione verso l’uso per primi dell’arma atomica (first strike) e alla riluttanza a procedere a riduzioni dei propri arsenali nucleari a cui si aggiunge, ovviamente, il rischio di uso nucleare accidentale, per errore, non autorizzato.

Si sono già verificati attacchi informatici che hanno provocato una perdita di controllo dei sistemi d'arma?

Naturalmente, queste informazioni non sono di pubblico dominio. Quello che è certo è che i sistemi militari, inclusi quelli nucleari, soffrono di serie vulnerabilità e sono quindi suscettibili di attacchi informatici. Nel caso degli USA, queste informazioni sono pubblicate su documenti ufficiali e non c’è motivo per ritenere che la situazione in altri paesi sia migliore. Al riguardo, si rimanda a uno studio del Defense Science Board del Department of Defense del 2013, al quale hanno fatto seguito una serie di rapporti del Government Accountability Office, l’ultimo dei quali è del 2021.

L'impatto dell'intelligenza artificiale (AI) in materia militare costituisce un valore aggiunto per la stabilità strategica oppure rischia di aumentare l'incertezza bellica?

Sistemi di intelligenza artificiale possono essere di aiuto come supporto ai processi decisionali nell’ambito di negoziazioni, ad esempio, per il controllo degli armamenti. Essi, potenzialmente, possono fungere da supporto tecnologico alle attività di analisi dei dati. Possono anche essere utili per l’operatività delle attività di monitoraggio del rispetto dei trattati. Inoltre, anche grazie alla loro capacità di deduzione logico-matematica automatica, possono aiutare a generare ed analizzare possibili scenari alternativi, le possibili conseguenze di determinate decisioni o azioni ecc. ecc.

Diversamente l’utilizzo dell’AI nel campo di battaglia, o nei sistemi di C3, specie quelli nucleari, lungi dal costituire, in generale, un valore aggiunto, può aggiungere, alle vulnerabilità generali dei sistemi digitali, altre vulnerabilità specifiche che potrebbero aprire la strada a ulteriori tipi di attacco.

Ne è esempio l’Adversarial Machine Learning (capacità del software di apprendere automaticamente) il cui obiettivo è appunto quello di ingannare i sistemi di Machine Learning (ML). Bisogna considerare inoltre che al di là della questione degli attacchi deliberati, le attuali tecniche di AI, ed in particolare quelle di ML, soffrono del problema della cosiddetta black-box, che è una caratteristica intrinseca degli artefatti di questa tecnologia e che significa semplicemente che il loro funzionamento può non essere comprensibile nemmeno al loro progettista o realizzatore.

È per questo che sono in atto varie iniziative, sia a livello ONU che della società civile, per regolamentare l’uso di armi autonome, che usano tecniche di AI, ed eventualmente vietarne gli usi che siano esenti da un controllo umano significativo nelle funzioni critiche, come la selezione del bersaglio e la decisione di abbatterlo.