US Army: una “combo” di sistemi autonomi e intelligenza artificiale per il targeting

Set 29 2020
a cura della Redazione
Una dimostrazione condotta dall’Esercito statunitense nel deserto dell’Arizona ha anticipato quanto accadrà sui campi di battaglia del futuro, dove la combinazione di AI e assetti unmanned operanti in tutti i domini della guerra consentirà di ridurre drasticamente la durata del ciclo “sensor to shooter”.
Durante la Project Convergence 2020, l'US Army Futures Command ha testato sistemi di intelligenza artificiale come il Dead Center e il Maven Smart System and Algorithmic Inference Platform, installati a bordo di un drone MQ-1C Grey Eagle. (Foto: US Army - Spc. Jovian Siders, 92nd Combat Camera Company.)
Durante la Project Convergence 2020, l’US Army Futures Command ha testato sistemi di intelligenza artificiale come il Dead Center e il Maven Smart System and Algorithmic Inference Platform, installati a bordo di un drone MQ-1C Grey Eagle. (Foto: US Army – Spc. Jovian Siders, 92nd Combat Camera Company.)

Una “catena” formata da sistemi autonomi operanti in più domini (terrestre, aereo e spaziale), piattaforme software e intelligenza artificiale per rilevare automaticamente le minacce, fornire dati di targeting e selezionare i sistemi d’arma più efficaci per rispondere ad esse nell’arco di pochi secondi. È questa la futuristica capacità che l’Esercito degli Stati Uniti ha dimostrato in una serie di ingaggi reali condotti nel deserto dell’Arizona (presso lo Yuma Proving Ground) lo scorso 23 settembre, al termine di una “campagna di apprendimento” detta Project Convergence 2020 (PC20) che si è svolta dall’11 agosto al 18 settembre con lo scopo di abbinare le capacità e i sistemi d’arma che dovrebbero consentire all’US Army di prevalere sui suoi avversari anche nei combattimenti terrestri del prossimo decennio grazie a una maggiore rapidità ed efficacia del targeting.

Gli impieghi dell’intelligenza artificiale e dell’apprendimento automatico

Secondo quanto riferito dalle fonti militari, la nuova combinazione di sistemi autonomi e intelligenza artificiale consente di ridurre la durata del ciclo “sensor to shooter” – ovvero il tempo che trascorre dall’acquisizione del bersaglio al suo ingaggio – da 20 minuti a 20 secondi, variabili in base alla qualità delle comunicazioni e al numero di “salti” da effettuare tra il punto di raccolta dei dati e la loro destinazione.
Nella dimostrazione del 23 settembre, l’intelligenza artificiale (AI) e l’apprendimento automatico (machine learning) sono stati impiegati per una molteplicità di funzioni. Lo ha spiegato il direttore del Next Generation Combat Vehicle Cross-Functional Team dell’Army Futures Command, Brig. Gen. Ross Coffman, rivolgendosi alla stampa: “Abbiamo utilizzato l’intelligenza artificiale per effettuare la ricognizione terrestre in modo autonomo, impiegare sensori e poi passare indietro le informazioni. Inoltre, abbiamo utilizzato l’AI, il riconoscimento assistito dei bersagli e l’apprendimento automatico per testare gli algoritmi sull’identificazione di varie tipologie di forze nemiche.”

Prometheus

Nella prima attività svolta allo Yuma Proving Ground, l’US Army ha utilizzato sensori spaziali operanti nella bassa orbita terrestre per acquisire immagini del campo di battaglia, le quali sono state trasmesse a un surrogato della stazione di terra TITAN situato presso la Joint Base Lewis McCord di Washington, dove sono state elaborate e fuse da un nuovo sistema di intelligenza artificiale chiamato Prometheus che serve per identificare i bersagli. Ricevuta dall’US Army nel 2019 e attualmente in fase di sviluppo, questa capacità di targeting sta migliorando, secondo un ufficiale dell’US Army impegnato nel Project Convergence 2020. Inoltre, è stato riferito che per alcuni ingaggi gli operatori hanno avuto la possibilità di inviare un drone per confermare le potenziali minacce identificate da Prometheus.

Operatori del network realizzato dall'US Army per migliorare le proprie capacità di targeting riducendo la durata del ciclo "sensor-to-shooter".
Operatori del network realizzato dall’US Army per migliorare le proprie capacità di targeting riducendo la durata del ciclo “sensor-to-shooter”. (Foto: Justine Ruggio / Network CFT)
Tactical Assault Kit e FIRESTORM

I dati relativi al targeting sono stati quindi inviati a un Tactical Assault Kit, un programma software che offre agli operatori una vista dall’alto del campo di battaglia popolato di forze “blu” (amiche) e “rosse” (nemiche). A mano a mano che nuove minacce vengono identificate da Prometheus o da altri sistemi, i relativi dati vengono inseriti automaticamente per mostrarne la posizione nel giro di pochi secondi.

Una volta acquisita la minaccia, per determinare la migliore risposta è entrata in gioco la FIRES Synchronization to Optimize Responses in Multi-Domain Operations (FIRESTORM). Si tratta di quello che il Gen. Mike Murray, a capo del dell’Army Futures Command, ha definito il cervello che connette i sensori sul campo di battaglia all’arma più idonea attraverso l’appropriato nodo di comando e controllo. Questo sistema di intelligenza artificiale funziona nell’ambito del Tactical Assault Kit. Una volta inserite nuove minacce nel programma, FIRESTORM elabora il terreno, le armi disponibili, la prossimità, il numero di diverse minacce e altro ancora per determinare quale sia il miglior sistema di tiro per rispondere a quella data minaccia. In base alla loro valutazione, gli operatori possono seguire le raccomandazioni del sistema, inviando ordini ai soldati o ai sistemi d’arma entro pochi secondi dall’identificazione della minaccia.

Su questo punto, i giornalisti hanno chiesto al generale Coffman in quale modo l’Esercito statunitense stia applicando i principi sull’uso etico dell’intelligenza artificiale adottati dal Dipartimento della Difesa all’inizio del 2020. Coffman ha risposto indicando il mantenimento dell’essere umano nel ciclo “sensor to shooter” (“man in the loop”) quale barriera fra l’AI e le decisioni potenzialmente letali: “L’US Army, un’organizzazione basata sull’etica, non rimuoverà l’essere umano dal loop per prendere decisioni di vita o di morte sul campo di battaglia. L’intelligenza artificiale identifica obiettivi nemici geo-localizzati. Un umano poi dice: Sì, vogliamo sparare a quel bersaglio.”

Un’altra importante funzione di FIRESTORM è la “deconfliction”, ossia garantire che più sistemi d’arma non sparino contemporaneamente sulla stessa minaccia, eliminando l’odierna necessità di chiamate tra operatori e la relativa possibilità di malintesi, oltre ad accelerare la procedura. Nella dimostrazione del 23 settembre, FIRESTORM ha raccomandato l’impiego di artiglieria a gittata estesa. Gli operatori hanno approvato il suggerimento dell’algoritmo, e il cannone indicato come miglior “shooter” ha sparato un proiettile contro il bersaglio situato a 40 chilometri di distanza. È molto significativo che il tempo trascorso fra l’identificazione del bersaglio e l’ordine di aprire il fuoco inviato all’arma designata sia stato più breve di quello necessario al proietto per raggiungere il bersaglio.

Un surrogato del veicolo  Next-Generation Combat Vehicle Mine-Resistant Ambush Protected impiegato per un'esercitazione di fuoco reale nell'ambito della  Project Convergence.
Un surrogato del veicolo Next-Generation Combat Vehicle Mine-Resistant Ambush Protected impiegato per un’esercitazione a fuoco reale nell’ambito della Project Convergence 2020. (Foto: Spc. Carlos Cuebas Fantauzzi)
Dead Center

In un altro scenario sviluppato nella dimostrazione allo Yuma Proving Ground, un drone MQ-1C Grey Eagle è stato in grado di identificare e acquisire una minaccia utilizzando il carico utile Dead Center disponibile a bordo. Questo ha consentito al velivolo di elaborare i dati raccolti dai sensori, identificando la minaccia in modo autonomo senza doverne inviare i dati a un posto di comando. Il drone era dotato anche di Maven Smart System and Algorithmic Inference Platform, un prodotto creato dal Project Maven, programma del Pentagono finalizzato all’impiego dell’intelligenza artificiale e dell’apprendimento automatico per l’elaborazione di video full-motion, con lo scopo di distinguere le persone dagli oggetti e così velocizzare l’analisi delle enormi quantità di dati video raccolti dai droni.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato.