Il nuovo budget di spesa dell’U.S. DoD prevede un premio di 5 milioni di dollari per le aziende e gli enti di ricerca che riusciranno a sviluppare tecnologie in grado di rilevare automaticamente immagini, video e audio ingannevoli creati grazie all’intelligenza artificiale.
Cosa succederebbe se un governo diffondesse su Internet un video all’apparenza autentico, ma in realtà falso, nel quale il leader di un paese rivale gli rivolge minacce di guerra oppure offende la cultura e la religione dei suoi cittadini? Non occorre essere degli analisti di politica internazionale per immaginare effetti destabilizzanti sulle relazioni fra i due paesi in questione e sulla loro sicurezza interna. Almeno nel brevissimo termine, che è poi la misura temporale del mondo contemporaneo, votato pericolosamente alla dittatura del “real time”. Purtroppo, l’eventualità descritta non si ispira a un racconto di fantascienza distopica, bensì alla realtà corrente dei “deepfake”, l’ultima frontiera delle tecniche di disinformazione utilizzate nel cyber-spazio, che il Dipartimento della Difesa degli Stati Uniti già considera una minaccia per la sicurezza nazionale. Al punto che nel suo budget di spesa per l’anno fiscale 2020 (ottobre 2020 – settembre 2021), approvato pochi giorni fa dal presidente Donald Trump, è previsto lo stanziamento di un premio di 5 milioni di dollari per le aziende e gli enti di ricerca che svilupperanno tecnologie in grado di rilevare automaticamente i deepfake.
Cosa sono i “deepfake”
Ma cosa si intende, con il termine “deepfake”? Ebbene, si tratta del prodotto di un particolare impiego dell’intelligenza artificiale (AI) che consente di sintetizzare l’immagine umana e di combinarla e sovrapporla ad altre immagini in modo da realizzare fotografie o video (con relativo sonoro) che sembrano originali e, invece, non lo sono. Con queste immagini manipolate è possibile attribuire a qualcuno, per esempio un capo di stato, parole che l’interessato non ha mai pronunciato e azioni che non ha mai compiuto. Nel recente passato, le vittime di questo sofisticato inganno digitale erano soprattutto le celebrità del mondo dello spettacolo, “riprese” in video pornografici che non avevano mai girato e che poi si diffondevano in modo virale sul Web. Ma a farne le spese possono essere anche politici con incarichi istituzionali: nel maggio del 2019 apparve su Internet il video di un discorso pubblico di Nancy Pelosi nel quale la speaker della Camera dei Rappresentanti USA rivolgeva pesanti accuse al presidente Trump biascicando le parole come se fosse ubriaca. Il video venne postato e massicciamente condiviso su Facebook, Twitter e YouTube, registrando milioni di visualizzazioni. Peccato che, come scoprì un’analisi del Washington Post, si trattava di un falso, creato rallentando la velocità del video originale e alterando il tono di voce della rappresentante democratica. Il problema dei deepfake è che sono sempre più sofisticati, capaci di rappresentare una realtà fittizia del tutto credibile che inganna facilmente il grande pubblico e mette in seria difficoltà gli stessi esperti chiamati a smascherarla.
Un problema di sicurezza nazionale per gli Stati Uniti
Non a caso lo scorso 29 agosto, durante una conferenza sull’intelligenza artificiale ospitata dal John Hopkins Applied Physics Laboratory, il generale Jack Shanahan, direttore del Joint Artificial Intelligence Center (JAIC) del Pentagono, ebbe a dichiarare che i deepfake rappresentano un motivo di preoccupazione a più livelli. In particolare, alla luce di quanto accaduto nelle elezioni presidenziali del 2016 e in vista di quelle del 2020, “siamo assolutamente sicuri che, se non contrastato, [l’utilizzo dei deepfake] si verificherà nuovamente”, ha detto Shanahan. Inoltre, “Come Dipartimento della Difesa riteniamo che esso costituisca anche un problema di sicurezza nazionale. Dobbiamo investire molto in questo campo. Molte aziende commerciali lo fanno ogni giorno. Il livello di sofisticazione sembra crescere in modo esponenziale.”
Lo sforzo del Pentagono per combattere le manipolazioni
Uno strumento con cui l’U.S. DoD sta cercando di affrontare i deepfake è il programma Media Forensics (MediFor) affidato alla sua Defense Advanced Research Projects Agency (DARPA), nell’ambito del quale si stanno sviluppando tecnologie che saranno in grado di stabilire automaticamente se immagini e video sono stati modificati con le più recenti tecniche basate sull’AI. L’obiettivo del programma è creare una piattaforma digitale “end-to-end” in grado di rilevare le manipolazioni e spiegare le modalità con le quali sono state realizzate. Evidentemente, però, si è ritenuto importante coinvolgere nella missione anti-deepfake anche attori esterni all’U.S. DoD. Da qui la decisione di affidare alla Intelligence Advanced Research Projects Activity (IARPA, la struttura interna all’Ufficio del Direttore dell’Intelligence Nazionale che organizza la ricerca di tecnologie innovative per le attività di spionaggio e controspionaggio) il lancio di una gara pubblica, con un premio di 5 milioni di dollari, per stimolare la ricerca, lo sviluppo e la commercializzazione di tecnologie in grado di rilevare automaticamente i deepfake.
Oltre a questa gara, la legge che fissa il budget del Pentagono per l’anno fiscale 2020 richiede al Direttore dell’Intelligence Nazionale (DNI) di redigere un rapporto sulle potenziali ripercussioni dei deepfake sulla sicurezza nazionale, relazionando anche sulle capacità dei governi stranieri di produrre e diffondere tali media e sulla loro intenzione di utilizzarli, con un riferimento esplicito a Russia e Cina.
In aggiunta, la legge impone al DNI di informare il Congresso ogni qualvolta vi sia un tentativo “credibile”, da parte di un’entità straniera, di diffondere media manipolati o testi generati dalle macchine allo scopo di interferire con le elezioni statunitensi. Infine, il DNI sarà tenuto a redigere un rapporto sugli sforzi intrapresi per sviluppare una tecnologia in grado di rilevare automaticamente i deepfake, come il già citato programma MediFor della DARPA.