DARPA: al via progetto per aumentare il controllo umano sui sistemi autonomi

Mag 28 2021
a cura di Angelo Pinti
Il programma EDGE dell’agenzia di ricerca e sviluppo del Pentagono punta a mettere gli operatori umani dei team uomo-macchina nelle condizioni di mantenere la “consapevolezza situazionale” e portare a termine la missione assegnata quando l’intelligenza artificiale si comporta in modo inaspettato.
Il logo del progetto EDGE (Enhancing Design for Graceful Extensibility) della DARPA. (Fonte: DARPA)
Il logo del progetto EDGE (Enhancing Design for Graceful Extensibility) della DARPA. (Fonte: DARPA)

La DARPA, l’Agenzia del Dipartimento della Difesa statunitense che si occupa dello sviluppo di nuove tecnologie per utilizzi militari, ha annunciato il 21 maggio il suo programma Enhancing Design for Graceful Extensibility (EDGE) che mira a creare una suite di tool di progettazione delle HMI (Human-Machine Interfaces – interfacce uomo-macchina) da integrare nei processi di design dei sistemi autonomi. Dando la priorità a questi tool e orientandoli verso la quantificazione, il supporto e il testing della consapevolezza situazionale (la “situational awareness” sempre più citata quale fattore decisivo sul campo di battaglia), invece che sul carico cognitivo a scapito di tale consapevolezza, EDGE aiuterà a creare sistemi HMI che consentano agli operatori umani non soltanto di monitorare i sistemi autonomi, ma anche di adattarne l’impiego all’insorgere di situazioni impreviste.

Un’esigenza emersa anche a seguito di recenti disastri aerei

L’iniziativa della DARPA punta risolvere una problematica che sta emergendo a mano a mano che si diffonde l’impiego di sistemi autonomi. Infatti, è vero che l’automazione sempre più avanzata e l’intelligenza artificiale consentono una riduzione del carico di lavoro e una maggiore sicurezza per gli operatori umani, che si tratti di guidare un veicolo, pilotare un aereo o pattugliare una strada pericolosa con l’ausilio di “compagni di squadra” autonomi (per esempio droni); ma è anche vero che quando si verifica un problema tecnico e le macchine non funzionano come previsto, i partner umani nei team uomo-macchina possono venire rapidamente sopraffatti dalla difficoltà di comprendere l’ambiente circostante nel mezzo di un momento critico, specialmente quando si sono abituati a fare affidamento sulle capacità delle macchine.

Senza la “consapevolezza situazionale” relativa allo stato di funzionamento del sistema e all’ambiente circostante, il membro umano della squadra potrebbe non essere in grado di adattarsi a una difficoltà che emerge improvvisamente e inaspettatamente, con una conseguente riduzione della sua sicurezza e un rischio più elevato per il successo della missione. Questa realtà si è verificata negli ultimi anni in occasione di incidenti ad aerei di linea che hanno ucciso centinaia di persone perché i sistemi automatizzati avanzati non avevano funzionato durante il volo e i piloti non erano stati in grado di valutare la situazione e rispondere in modo appropriato e in tempo utile. Tali esempi sottolineano la necessità di progettare interfacce uomo-macchina che consentano agli esseri umani di mantenere la consapevolezza situazionale dei sistemi altamente automatizzati e autonomi a loro disposizione, così da potersi adattare al verificarsi di circostanze impreviste.

L’Airpower Teaming System (ATS), il drone concepito da Boeing per operare come un “fedele gregario” (Loyal Wingman) dei caccia pilotati dell’Aeronautica australiana grazie all’impiego dell’intelligenza artificiale. Su questo drone si baserà anche il prototipo che Boeing costruirà per la gara relativa al programma Skyborg dell’US Air Force. (Fonte: Source: Commonwealth of Australia)
L’Airpower Teaming System (ATS), il drone concepito da Boeing per operare come un “fedele gregario” (Loyal Wingman) dei caccia pilotati dell’Aeronautica australiana grazie all’impiego dell’intelligenza artificiale. Su questo drone si baserà anche il prototipo che Boeing costruirà per la gara relativa al programma Skyborg dell’US Air Force. (Fonte: Source: Commonwealth of Australia)
Ridurre il “carico cognitivo” sugli umani, non la loro capacità di gestire le emergenze

“Poiché le macchine altamente automatizzate e i sistemi abilitati dall’intelligenza artificiale sono diventati sempre più complessi, la tendenza nello sviluppo delle interfacce uomo-macchina è stata quella di ridurre il più possibile il carico di lavoro cognitivo sugli esseri umani. Sfortunatamente, il modo più semplice per farlo è limitare il trasferimento di informazioni”, ha spiegato Bart Russell, responsabile del programma EDGE presso il Defense Sciences Office della DARPA. “Ridurre il carico di lavoro è importante, perché una persona sovraccarica non può prendere buone decisioni. Ma limitare le informazioni erode la consapevolezza della situazione, rendendo difficile per gli operatori umani sapere come adattarsi quando l’AI non funziona come previsto. Gli attuali sistemi di intelligenza artificiale tendono ad essere precari, nel senso che non gestiscono bene le situazioni impreviste, e la guerra è definita proprio dall’inatteso.”

La funzione dei tool di progettazione EDGE

I tool di progettazione EDGE si concentreranno sul supporto alla capacità degli operatori di sistemi autonomi, che non sono necessariamente “data scientist” (cioè specialisti nello sviluppo di modelli e strategie basati sui dati disponibili) o esperti di intelligenza artificiale, di comprendere il funzionamento astratto di un sistema quanto basta da sapersi adeguare alle situazioni impreviste. I progettisti potranno sfruttare gli strumenti di progettazione EDGE per creare interfacce uomo-macchina che aiutino gli operatori a comprendere i processi di un sistema basato sull’intelligenza artificiale o il modo in cui funziona; lo stato del sistema rispetto al suo inviluppo di prestazioni (in altre parole, se si trova nella sua “zona di comfort” o vicino ai limiti della sua velocità, portata, ecc.); e il contesto ambientale, che è spesso il luogo in cui entrano in gioco gli elementi più imprevisti.

“Abbiamo bisogno di HMI che facciano un lavoro migliore nello scambio delle informazioni tra il sistema e l’uomo”, ha detto ancora Russell. “Al momento si lavora molto alla progettazione di macchine volte a comprendere le intenzioni umane, sulla base della AI Theory of Mind. A me interessa aiutare gli esseri umani a comprendere meglio i sistemi complessi con cui operano in team. EDGE è specificamente focalizzato sul loop OODA [Observe, Orient, Decide and less on the Act]. Non si tratta di quanto velocemente premi un pulsante o dell’ergonomia della tua cabina di pilotaggio, ma di quanto bene percepisci le informazioni che ti arrivano e se ciò ti aiuta a sviluppare una comprensione sufficiente dei processi dei sistemi, del loro stato rispetto all’inviluppo delle prestazioni e del contesto in cui operano, con l’obiettivo di completare una missione nonostante il verificarsi di condizioni impreviste.”

La suite di strumenti di progettazione HMI EDGE includerà modelli che quantificano le esigenze di consapevolezza situazionale per consentire un co-design dettagliato tra ingegneri del software e progettisti delle interfacce uomo-macchina (HMI); metodi di progettazione componibili per accelerare e maturare l’implementazione del progetto; e una breadboard (strumento per creare prototipi di circuiti elettrici) HMI per svolgere test e verifiche realistici nelle prime fasi del processo di design.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *